Home Blog Pagina 34

Istat: Produzione industriale – Dicembre 2024

Il 2024 si chiude con una diminuzione della produzione industriale del 3,5%; la dinamica tendenziale dell’indice corretto per gli effetti di calendario è stata negativa per tutti i mesi dell’anno, con cali congiunturali in tutti i trimestri.

Tra i principali raggruppamenti di industrie, solamente per l’energia si registra un incremento nel complesso del 2024. Nell’ambito della manifattura, solo le industrie alimentari, bevande e tabacco sono in crescita rispetto all’anno precedente, mentre le flessioni più marcate si rilevano per industrie tessili, abbigliamento, pelli e accessori e fabbricazione di mezzi di trasporto.

Scarica la nota ISTAT

Fonte: ISTAT

Convenzione ASSIV-VALE: Corsi di formazione settore Security

ASSIV ha sottoscritto una convenzione con VALE, società di formazione che opera su tutto il territorio nazionale con particolare riguardo al settore della Security.

Gli Associati ASSIV potranno fruire di tutti i corsi offerti a un prezzo di listino a loro riservato.

▶ Scoprite l’offerta formativa di VALE:

L’obiettivo del corso per Security Manager è la formazione del Professionista della Security come previsto dalla normativa UNI 10459:2017.

Il percorso formativo si propone di formare esperti nel settore della sicurezza pubblica e privata, che abbiano una buona conoscenza del business e che siano in grado di operare in modo trasversale nei processi aziendali.

Il corso per Professionisti della Security permetterà ai partecipanti l’acquisizione dei requisiti professionali richiesti dai DM 269/10 e DM 56/2015, in materia di organizzazione e requisiti minimi dei servizi offerti dagli Istituti di Vigilanza Privata.

Accademia della Sicurezza, attraverso il suo portale, costituisce un valido strumento di formazione a distanza (e-learning) che consente di erogare corsi di formazione sui temi della salute e sicurezza sul lavoro al singolo lavoratore, obbligatori per tutte le aziende italiane.

La qualità e l’efficacia di questo sistema di formazione on-line è dato dalla qualità di progettazione dei contenuti dei corsi: ciascun percorso è stato progettato, studiato ed elaborato in conformità con gli standard minimi previsti dalla normativa vigente.

Alcuni fra i corsi proposti:

Gruppo Vale srl nel corso degli ultimi anni si è imposta come una delle più importanti realtà nella formazione e consulenza per gli Istituti di Vigilanza.

Formazione Vigilanza è il portale specifico per la formazione delle guardie particolari giurate.

Alcuni fra i corsi proposti:

Altri corsi:

Per informazioni e iscrizioni: 800 98 53 94

[email protected] | [email protected]

[email protected] | [email protected]

Dalla Commissione europea le prime indicazioni sugli usi (proibiti) dell’IA nel rapporto di lavoro

Dopo che le disposizioni dell’AI Act in materia avevano già cominciato ad essere applicate – il termine di 6 mesi dall’entrata in vigore previsti sono decorsi lo scorso 2 di febbraio – e ancorché in una forma provvisoria, la Commissione europea ha approvato in data 4 di febbraio gli orientamenti (guidelines) che ai sensi dell’art. 96, § 1, let. b) del Regolamento (UE) 2024/1689 devono guidare l’attuazione pratica del Regolamento AI con riferimento alle pratiche vietate dal suo art. 5 (v. Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act)). Seppur si tratti di linee guida non vincolanti – dovendosi attendere a questo fine gli orientamenti della Corte di Giustizia dell’Unione Europea (v. § 5 delle Guidelines) – il documento era molto atteso tanto dagli operatori del mercato quanto dalle Autorità che dovranno garantire il controllo di conformità delle pratiche di intelligenza artificiale negli Stati membri.
 
Venendo all’oggetto delle linee guida, si tratta, nel quadro della disciplina euro-unitaria sull’intelligenza artificiale, di quelle tecnologie e di quegli usi dell’IA che nella prospettiva del rischio adottata dal Regolamento sono ritenuti così pericolosi per i diritti fondamentali e per i valori dell’Unione da dover essere preclusi in radice, salvo specifiche eccezioni. Tra tali pratiche rientrano, per esempio, tecnologie:
– che agiscano nel senso di distorcere o manipolare il comportamento di una persona;

– che tramite forme di social scoring, ossia di valutazione e classificazione dei comportamenti e delle caratteristiche delle persone nel tempo, comportino un trattamento pregiudizievole di persone o gruppi in contesti diversi da quelli in cui i dati sono stati generati o raccolti o che sia comunque sproporzionato o ingiustificato;

– a certe condizioni, che siano utilizzate per prevedere il rischio di commissione di reati da parte di una persona fisica.
 
Per quanto di specifico interesse nella prospettiva giuslavoristica, tra le pratiche vietate di cui all’art. 5 del Regolamento è prevista anche «l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza» (art. 5, § 1, let. f) del Regolamento).
 
Lasciando al momento da parte i rilievi in merito ai possibili usi del social scoring nell’ambito della assegnazione o della lotta alle frodi rispetto alle prestazioni di sicurezza sociale (v. esempi § 166 delle Guidelines) – se non attuali per l’ordinamento italiano, di certo non remoti se consideriamo le prime sperimentazioni dell’IA nella piattaforma SIISL – è proprio con riferimento al perimetro di tale divieto e delle relative eccezioni, il documento della Commissione risulta di estremo interesse per valutare l’impatto del Regolamento nell’ambito dei rapporti di lavoro (v. sezione 7 delle Guidelines).
 
Come osservato dal documento orientativo della Commissione e dai considerando del Regolamento, le tecnologie di intelligenza artificiale finalizzate al riconoscimento delle emozioni, oltre a far sorgere rilevanti dubbi rispetto alla loro effettiva attendibilità, possono condurre ad esiti discriminatori e, comunque, risultano particolarmente intrusivi rispetto alla libertà e ai diritti fondamentali delle persone, specialmente in contesti caratterizzati da una asimmetria di potere come quello educativo e lavorativo.
 
Detto che il divieto riguarda tanto i provider che forniscono la tecnologia quanto gli eventuali deployer (in questo caso datori di lavoro), esso interessa secondo le guidelines i sistemi di IA che consentono di identificare o inferire emozioni o intenzioni sulla base di dati biometrici della persona (siano essi caratteristiche fisiche o comportamentali), con una sostanziale assimilazione dell’espressione utilizzata all’art. 5 con la nozione di “sistema di riconoscimento delle emozioni” definita all’art. 3, n. 39 del Regolamento. Quanto alla nozione di emozioni, essa andrebbe intesa in senso estensivo, senza limitarsi alle esemplificazioni previste dal considerando 18 del Regolamento (felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento) e comprendendo anche l’eventuale riferimento ad atteggiamenti, ma, sempre in linea con il considerando, escludendo il riconoscimento di stati fisici, come per esempio il dolore o l’affaticamento, che sono al centro del funzionamento di alcuni importanti e innovativi dispositivi di sicurezza sul lavoro. A scopo esemplificativo, il documento rileva come rientrino nel divieto quelle tecnologie di IA che inferiscono se un dipendente è infelice, triste o arrabbiato, ma fuoriescano i sistemi di riconoscimento dell’affaticamento di piloti e autisti.
 
Particolarmente rilevante, ai fini della definizione dell’ambito applicativo del divieto, è la nozione di luogo di lavoro (workplace) che deve essere intesa in termini ampi tanto rispetto alla collocazione spaziale (fisica o virtuale) quanto con riferimento alle persone che vi operano, che includono non soltanto lavoratori subordinati o autonomi, ma anche tirocinanti e volontari e, analogamente a quanto avviene con i sistemi di IA ad alto rischio nei contesti di lavoro, i candidati ad un posto di lavoro. A fronte di questa ampia nozione, viene fornita una lunga lista di pratiche che si ritengono proibite (es. riconoscimento di emozioni durante la selezione del personale o nel periodo di prova o, ancora, uso di telecamere di riconoscimento delle emozioni da parte di un supermercato sui propri dipendenti), mentre non convince, in quanto difficile da prefigurare, l’eccezione formulata rispetto all’uso per mere finalità di formazione personale, laddove i risultati non siano condivisi con responsabili HR e  laddove non impattino sul rapporto di lavoro.
 
Di estremo rilievo, anche per le preoccupazioni che aveva sollevato (v. A. Ponce del Castillo, The AI Act: deregulation in disguise, in Social Europe, 11 December 2023), è il regime di eccezioni rispetto al divieto che riguarda l’uso medico (per esempio, terapeutico) e quello connesso a ragioni di sicurezza. Era soprattutto questo secondo a sollevare dubbi rispetto alle effettive possibilità di adozione di tali tecnologie di IA nei contesti di lavoro. L’orientamento della Commissione è di tipo restrittivo, prevedendosi che l’eccezione non include sistemi di monitoraggio generale del livello di stress tramite analisi delle emozioni e, con specifico riferimento alla nozione di “sicurezza”, che essa si riferisce esclusivamente ad aspetti relativi alla vita e alla salute dei lavoratori o degli studenti e non alla tutela del patrimonio. Tale approccio restrittivo porta la Commissione a ritenere che, non soltanto l’adozione di tali sistemi debba essere limitata a situazioni in cui è strettamente necessario, con le necessarie limitazioni di tempo e ambito applicativo e adeguate garanzie, ma che i dati generati o raccolti nelle poche situazioni in cui è ammesso non vengano utilizzati per ulteriori finalità rispetto a quelle relative alla concreta e legittima esigenza.
 
Infine, oltre a delineare altre pratiche che ricadono fuori dal divieto (es. sistemi di riconoscimento delle emozioni di gruppo) e aver ammesso, con cautele, l’adozione di IA per altre finalità che però possono incidentalmente interessare anche lavoratori (es. personale di sicurezza in eventi pubblici), il documento segnala come, anche laddove ricadenti al di fuori del divieto, tali sistemi sono in ogni caso riconducibili alla nozione di IA ad alto rischio (con le relative tutele e garanzie) e rimangono sottoposti alle ulteriori discipline previste all’interno del GDPR o delle normative nazionali in materia di IA, data protection e/o di diritto del lavoro, ricordando anche che discipline più favorevoli possono essere introdotte dagli Stati membri per la protezione dei diritti dei lavoratori ai sensi dell’art. 2, § 11 del Regolamento (UE) 2024/1689 (e, si potrebbe aggiungere, dell’art. 88 del GDPR).
 
Riportando tale riflessione al caso italiano, questo significa non soltanto verificare la conformità rispetto alla disciplina in materia di protezione dei dati personali (oltre al Regolamento, il d.lgs. n. 196/2003), ma anche valutare l’applicabilità delle tradizionali tutele statutarie e, in particolare, dell’art. 8 in materia di indagine sulle opinioni personali del lavoratore e su fatti non rilevanti ai fini della valutazione dell’attitudine professionale e l’art. 4, in materia di controlli a distanza. Non è un caso che, proprio con un accordo ex art. 4 fondato sull’esigenza della tutela della salute dei lavoratori sia stata avviata una delle più interessanti sperimentazioni dell’IA nei contesti di lavoro, che seppur non riguardi il riconoscimento di emozioni, mostra la strada per una adozione condivisa di innovative tecnologie per la sicurezza. Si tratta dell’accordo SAIPEM del 2024 che, nello specifico, ha legittimato l’introduzione di telecamere intelligenti per il riconoscimento, tra l’altro, di situazioni di pericolo o di uomo a terra.
 
Emanuele Dagnino

Ricercatore tenure track di diritto del lavoro,
Università degli Studi di Milano

Bollettino ADAPT 10 febbraio 2025, n. 6

Rosolini (SR) punta sulla vigilanza privata: un modello per la sicurezza urbana

Negli ultimi tempi, diversi articoli di stampa hanno evidenziato come numerosi comuni del Centro e del Nord Italia abbiano già scelto o stiano valutando di affidarsi alla vigilanza privata per il presidio e il controllo del territorio comunale.

In questo contesto, assume particolare rilevanza il caso del Comune di Rosolini, in provincia di Siracusa. Pur trovandosi in una situazione di dissesto finanziario, l’amministrazione locale ha deciso di destinare 5.000 euro all’attivazione di servizi di vigilanza privata per contrastare l’aumento della microcriminalità. Il piano prevede l’impiego di tre auto che, nelle ore notturne, pattuglieranno le aree più sensibili della città, con un’attenzione particolare al centro storico, alle zone commerciali e ai quartieri residenziali.

La scelta di Rosolini evidenzia una crescente consapevolezza dell’importanza della sicurezza sussidiaria. Le guardie giurate, infatti, possono rappresentare un valido supporto alle forze dell’ordine, soprattutto nei territori in cui le risorse pubbliche risultano insufficienti. Tuttavia, affinché questa collaborazione risulti realmente efficace, è necessario un cambio di mentalità che riconosca il ruolo strategico della vigilanza privata all’interno del sistema di sicurezza nazionale.

Questo approccio non solo rafforza la sicurezza locale, ma contribuisce anche a creare una rete di controllo più capillare ed efficiente sul territorio. L’integrazione tra forze dell’ordine e vigilanza privata può diventare una risposta concreta alle sfide contemporanee in materia di sicurezza, specialmente in un periodo in cui molte amministrazioni locali devono far fronte a ristrettezze economiche.

L’esperienza di Rosolini potrebbe quindi costituire un modello per altri comuni del Sud Italia, dimostrando come la collaborazione tra settore pubblico e privato rappresenti una strategia efficace per garantire la sicurezza dei cittadini. L’auspicio è che, attraverso una maggiore valorizzazione della vigilanza privata e un rafforzamento della sinergia con le forze dell’ordine, si possa costruire un sistema di sicurezza più efficiente e inclusivo su tutto il territorio nazionale.

Qui trovi gli articoli di stampa che parlano del caso Rosolini.
https://www.corriereelorino.it/il-comune-di-rosolini-ricorre-alla-vigilanza-privata-per-contrastare-laumento-della-microcriminalita/

https://www.siracusanews.it/furti-scassi-e-risse-a-rosolini-il-sindaco-spadola-ricorre-alla-vigilanza-privata/