Home Blog Pagina 23

Ispettorato Nazionale del Lavoro – Nota n. 1180/2025 : Lavoro intermittente. Cosa cambia dopo l’abrogazione del Regio Decreto del 1923

La recente pubblicazione della Legge n. 56 del 7 aprile 2025, sulla Gazzetta Ufficiale n. 95 del 24 aprile 2025, ha riaperto un importante dibattito in merito all’abrogazione degli atti normativi risalenti al periodo prerepubblicano (1861-1946), con particolare attenzione al Regio Decreto n. 2657 del 6 dicembre 1923.

Questo provvedimento era ancora rilevante soprattutto nell’ambito della regolamentazione dei contratti di lavoro intermittente (a chiamata) per individuare le attività lavorative, principalmente di attesa o custodia, che potevano essere oggetto del contratto di lavoro.

Con questa particolare tipologia contrattuale, un lavoratore si pone a disposizione di un datore di lavoro che ne può utilizzare la prestazione lavorativa in modo discontinuo o intermittente secondo le esigenze individuate dai contratti collettivi, anche con riferimento alla possibilità di svolgere le prestazioni in periodi predeterminati nell’arco della settimana, del mese o dell’anno. In mancanza di contratto collettivo, i casi di utilizzo del lavoro intermittente andranno ora individuati con un nuovo decreto del Ministro del lavoro e delle politiche sociali ( non da ultimo, il Ministero ha indicato nella circ. n. 9 del 18.04.2025 il lavoro intermittente come una delle fattispecie contrattuali con la quale può essere inquadrato il lavoro mediante piattaforma digitale ).

In attesa del nuovo intervento ministeriale, l’ Ispettorato del Lavoro ha emanato la nota n.1180/2025 precisando come l’ abrogazione non abbia inciso sulla disciplina del lavoro intermittente e il rinvio operato dalla legislazione all’elenco contenuto nel decreto del 1923 vada considerato non formale ma sostanziale e, pertanto, non incide sulla vigenza dell’ attuale disciplina e sul possibile utilizzo del contratto di lavoro intermittente.   

Per garantire continuità applicativa, la tabella delle possibili attività oggetto di contratto di lavoro intermittente del Regio Decreto può quindi mantenere una rilevanza operativa e interpretativa, offrendo un punto di riferimento utile per la stipula dei contratti. 

Fonte: Lavorosi.it

Webinar ANIE: Trend e Scenari economici: il punto trimestrale – 22/07/2025 ore 9.30-11.00

Martedì 22 luglio 2025, dalle ore 9:30 alle 11:00, torna l’appuntamento con il consueto aggiornamento trimestrale di ANIE dedicato all’analisi dei principali trend economici globali e nazionali, con un focus sui settori industriali rappresentati dalla Federazione.

L’incontro, in formato webinar e riservato ai Soci ANIE, offrirà una panoramica puntuale sulle dinamiche macroeconomiche in corso, sull’andamento dei mercati esteri, sull’evoluzione dei prezzi delle materie prime e sulle prospettive settoriali, alla luce dei consuntivi 2024 e dei dati aggiornati al primo semestre 2025.

Temi e interventi in agenda

L’evento vedrà la partecipazione di esperti economisti e rappresentanti del sistema ANIE, che affronteranno i seguenti temi:

  • Tendenze economiche globali e italiane, tra tensioni commerciali internazionali e rischio di rallentamento della crescita
    🎤 Alba Di Rosa, Economista – StudiaBo
  • I settori ANIE alla prova dei consuntivi 2024 e dei primi mesi del 2025
    🎤 Mariarosaria Fragasso, Responsabile Area Relazioni Esterne e Studi – ANIE
  • Prezzi delle materie prime, in un contesto economico incerto e instabile
    🎤 Pasquale Marzano, Economista – StudiaBo | Responsabile – BL PricePedia
  • Investimenti nel settore ferroviario: evoluzioni recenti e impatti sull’industria
    🎤 Francesco Iannello, Segretario – ANIE Assifer

Iscrizioni

La partecipazione al webinar è gratuita ma riservata ai Soci ANIE.
È possibile iscriversi entro lunedì 21 luglio 2025 tramite il seguente link:

🔗 Registrati al webinar

IA e gestione del personale. Divieti e limiti al social scoring tra giurisprudenza e normativa UE

Una questione di crescente rilevanza nella prassi e arrivata anche alla attenzione della giurisprudenza riguarda l’utilizzo della intelligenza artificiale per la valutazione di persone della profilazione del loro comportamento sociale o delle caratteristiche personali: cd. social scoring.

La questione è regolata dall’ art 5.1 lett c del regolamento europeo sull IA, che stabilisce condizioni rigorose per questo utilizzo, ampiamente illustrate da apposite linee guida della Commissione europea (comunicazione del 4 febbraio 2025C 2025/884 final sulle pratiche vietate di uso della intelligenza artificiale secondo l’IA europeo).

Le linee guida rilevano che questi sistemi di profilazione automatici possono essere utili a promuovere comportamenti corretti, a migliorare la sicurezza l’ efficacia e la qualità dei servizi, ma osservano che alcune pratiche di scoring possono comportare effetti sfavorevoli e discriminatori per le persone o i gruppi coinvolti nonché forme di controllo sociale incompatibili con i valori della Unione.

I divieti stabiliti del regolamento sul social scoring mirano a colpire queste pratiche illecite al fine di proteggere i diritti fondamentali della persona, inclusi il diritto alla non discriminazione e alla eguaglianza, alla protezione dei dati, alla vita personale familiare, e agli altri diritti sociali riconosciuti dalla normativa dell’ Unione.

Divieti e limiti del social scoring – Secondo la norma dell’ IA Act le pratiche di social scoring sono vietate in due serie di casi:

a) quando conducono a trattamenti sfavorevoli o dannosi di persone o gruppi in contesti sociali non correlati con quelli in cui i dati sono stati generati o raccolti.

b) quando portano a trattamenti sfavorevoli o dannosi non giustificati o non proporzionati rispetto al comportamento sociale o alla sua gravità.

Le linee guida offrono alcuni esempi di pratiche vietate.

Rientrano nella prima serie di casi, ad es. l’ uso di un sistema di IA da parte di un agenzia di assistenza sociale per stimare la probabilità di frode da parte di beneficiari di assegni familiari basandosi su caratteristiche raccolte o desunte da contesti e caratteri sociali privi di apparente connessione o rilevanza in proposito come avere il coniuge di una certa nazionalità o etnia, avere una connessione internet o un dato comportamento sui social o una data performance sul lavoro; l’uso da parte di un’agenzia del lavoro per valutare se certi soggetti meritano il trattamento di disoccupazione basandosi non solo su caratteri quali età e livello di educazione ma anche su dati senza nesso con l’ oggetto della decisione come lo stato coniugale, o dati relativi allo stato di salute, ecc.

Esempi del secondo tipo di pratiche vietate indicati dalle linee guida sono: uso di sistemi di IA da parte di un ente pubblico per profilare le famiglie e individuate precocemente i bambini a rischio basandosi su criteri quali la salute mentale e la disoccupazione dei genitori, ma anche su informazioni circa il comportamento sociale dei genitori tratte da molteplici contesti; uso di IA da parte di un Comune per valutare la affidabilità dei residenti basandosi su molteplici dati riferiti al comportamento sociale in diversi contesti quali la insufficiente partecipazione ad attività di volontariato e piccole irregolarità quali non restituire in tempo i libri presi a prestito dalla biblioteca o lasciare spazzatura in strada in giorni diversi da quelli stabiliti. La sproporzione sta nel fatto che i punteggi così raccolti sono usati per trarne conseguenze gravi come la revoca di benefici pubblici e simili misure punitive.

Una ipotesi in parte diversa relativa alla valutazione del lavoro menzionata nelle linee guida riguarda i giudizi forniti dai singoli utenti di un servizio reso tramite piattaforme digitali, in ipotesi le valutazioni di un autista operante mediante una piattaforma di car sharing on line. Si ritiene che le valutazioni siano legittime se sono la mera aggregazione di punteggi attribuiti al comportamento dei singoli utenti che non richiede necessariamente la IA; se invece tali valutazioni sul servizio sono combinate con altre informazioni e analizzate in modo automatico dal sistema di IA per classificare gli individui ,esse devono considerarsi vietate secondo l’ art 5 lett c dell’ IA Act.

La ratio dei divieti e dei limiti – I divieti e i limiti stabiliti dalla regolazione in esame hanno una ratio comune abbastanza chiara e ragionevole.

Il principio cui essi si ispirano è simile a quello stabilito dall’ art. 8 dello Statuto dei lavoratori italiano che vieta al datore di lavoro di effettuare indagini su fatti che non siano rilevanti ai fini della valutazione della sua attitudine professionale; e risponde alla stessa esigenza di tutelare la privacy delle persone coinvolte e soprattutto evitare discriminazioni

Nel caso qui considerato l’ambito di applicazione del principio va oltre i controlli e le possibili discriminazioni dei lavoratori estendendosi alla prevenzione di ogni possibile rischio di discriminazione sociale.

Inoltre tali rischi di discriminazione, come quindi l’ambito di applicazione del divieto, sono grandemente ampliati dalle enormi possibilità di scoring con utilizzo di dati a fini discriminatori offerte dagli strumenti della intelligenza artificiale, siano essi usati dai datori di lavoro o da altri soggetti pubblici e privati (le guidelines specificano espressamente che la regolazione comprende ogni attività di questo genere senza distinzione fra pubblico e privato).

Le indicazioni suggerite da questa casistica hanno implicazioni rilevanti riguardanti gli utilizzi della IA ormai sempre più diffusi anche nella gestione del personale.

Implicazioni per la gestione del personale – Una applicazione fra le più frequenti della IA in questa materia riguarda i casi in cui sia necessario analizzare grandi numeri di curricula dei candidati, ove tale strumento risulta estremamente efficiente. Un simile utilizzo va però circondato di non poche cautele per evitare di incorrere in violazioni dei principi fin qui segnalati.

Infatti nonostante la chiarezza del principio ispiratore della regola, la sua applicazione pratica, e in particolare la distinzione fra pratiche legittime e pratiche vietate rimane alquanto incerta per vari aspetti.

Lo segnalano le stesse linee guida che pure forniscono indicazioni precise sui concetti rilevanti per la soluzione delle questioni: quelli di profiling, di caratteristiche personali, di social behaviour, sul periodo di tempo cui riferire lo scoring, nonché in particolare sul nesso causale fra social score e trattamento sfavorevole per il soggetto interessato, sul carattere rilevante o meno dei dati rilevati e dei contesti in cui originano e infine sulla proporzionalità o meno delle conseguenze tratte dallo scoring.

A rendere più complesse le decisioni si ricorda che, oltre a rispettare i confini, fra pratiche ammesse e discriminatorie c’è la necessità di rispettare le regole della privacy nell’impiego dei dati relativi ai singoli candidati, curando che non siano incluse (nella analisi) informazioni diverse e ulteriori a quelle contenute negli stessi curricula.

La delicatezza della questione può indurre a circoscrivere in modo preciso la funzione attribuita alla IA in questa selezione, come risulta dalle migliori pratiche aziendali (vedi il Report del dibattito all’ Arel sull’ uso della intelligenza artificiale in alcune grandi aziende,18 giugno 2025).

In particolare si evita di attribuire a questi sistemi automatici compiti di valutazione dei c.v., utilizzandoli solo per verificare la corrispondenza dei dati sulle competenze dei candidati ivi contenuti con i requisiti prestabiliti dall’ azienda per le assunzioni.

Analogamente, tenendo conto del caso sopra citato dalle linee guida è sconsigliabile che in casi simili siano utilizzate altre informazioni oltre quelle dei c.v. analizzate in modo automatico.

La decisione della Corte europea di giustizia – Indicazioni significative sulle implicazioni e difficoltà di queste scelte si trovano in una recente decisione della Corte europea di giustizia nella Causa C‑203/22 relativa alla applicazione delle norme del regolamento europeo sulla privacy (GDPR). Questa è una normativa che si integra per molti versi con il regolamento sulla IA perché i sistemi di intelligenza artificiale utilizzano ampiamente dati personali i quali devono quindi essere trattati nel rispetto delle regole sulla privacy.

La decisione della Corte riguardava il caso di un operatore di telefonia mobile che aveva negato la conclusione di un contratto che avrebbe comportato il pagamento mensile di dieci euro a una cittadina austriaca adducendo che in base a una valutazione automatizzata della cecità di pagamento (la cosiddetta profilazione) era emersa una insufficiente solvibilità finanziaria della potenziale cliente. Secondo la Corte la valutazione automatizzata della solvibilità di una persona e il conseguente diniego di stipulazione di un contratto di telefonia mobile non può prescindere dalla spiegazione di come siano trattati i dati personali per mezzo dell’ algoritmo.

Il principio sancito nel caso specifico ha una implicazione generale di grande rilevanza perché mira a rendere trasparente il processo decisionale di questi sistemi automatizzati riconoscendo il diritto della persona interessata a ottenere una spiegazione circa il meccanismo posto alla base di tale processo decisionale e circa il risultato ottenuto.

La sentenza specifica in modo rigoroso i requisiti di intelligibilità e accessibilità cui tale spiegazione deve corrispondere per essere adeguata a soddisfare il diritto alla spiegazione,

i parametri utilizzati per la valutazione e la loro spiegazione, l’ origine delle informazioni, le procedure e i principi applicati per utilizzare i dati al fine perseguito (cfr. Lucia Valente, Quando è vietato dare un voto, loc. cit.).

Si ricorda che il nostro ordinamento stabilisce l’obbligo del datore di lavoro di informare i lavoratori nel caso di uso di sistemi integralmente automatizzati decisionali e di monitoraggio relativi ai vari aspetti delle relazioni di lavoro (decreto 104/2022).

Diritto alla spiegazione delle decisioni dell’algoritmo – Il riconoscimento nella sentenza di un diritto così circostanziato degli interessati alla spiegazione dei meccanismi decisionali propri di questi meccanismi automatizzati è importante perché conferma con l’autorità della Corte europea una regola presente in due recenti provvedimenti della Unione, la direttiva sul miglioramento condizioni del lavoro tramite piattaforme digitali (2024/2831) all’ art.11,1 e lo stesso regolamento sulla intelligenza artificiale all’art. 81; entrambe le norme sanciscono il diritto degli interessati a ottenere la giustificazione delle decisioni tramite sistemi informatizzati diretta a chiarire il loro modo di funzionamento e i procedimenti seguiti per arrivare all decisione.

Questo diritto a ottenere la giustificazione delle decisioni dei sistemi di IA a loro pregiudizievoli è uno strumento importante se non decisivo per accertare eventuali comportamenti discriminatori, data la oscurità dell’ operare di questi meccanismi automatici e la difficoltà di accertare altrimenti la esistenza di simili comportamenti.

Quanto alle conseguenze di un eventuale rifiuto di fornire giustificazioni adeguate la soluzione più plausibile è che esso determini la inversione dell’onere dalla prova, ponendo in capo al datore di lavoro l’onere di fornire motivi non discriminatori della decisione (vedi T. Treu, Il principio del controllo umano, cit., p. 30 ss.).

La presenza di queste norme e l’avallo della Corte di giustizia sono segnali importanti che possono condurre a riconoscere il diritto alla giustificazione delle decisioni algoritmiche come un possibile principio generale della emergente IA law. 

a cura di Tiziano Treu, WST Law & Tax

Fonte: Lavorosi.it

Sicurezza urbana nel nisseno: approvati in prefettura i progetti di sette comuni

Prevedono l’installazione di sistemi di videosorveglianza nelle aree più sensibili

Il prefetto di Caltanissetta Chiara Armenia ha presieduto oggi una riunione del Comitato provinciale per l’ordine e la sicurezza pubblica nel corso della quale sono stati approvati i progetti per la videosorveglianza presentati dai comuni di Butera, Marianopoli, Mazzarino, Milena, Riesi, Santa Caterina e Serradifalco. Le proposte prevedono l’installazione di sistemi di videosorveglianza nelle aree più sensibili e maggiormente caratterizzate da fenomeni di illegalità, con l’obiettivo di aumentare la capacità di controllo e di intervento sul territorio.

Nel corso della riunione sono stati inoltre sottoscritti i “Patti per la sicurezza urbana”, accordi che mirano a realizzare strategie congiunte per migliorare le condizioni di sicurezza, contrastare illegalità e degrado attraverso iniziative di prevenzione e promuovere il rispetto del decoro urbano.

L’approvazione dei progetti e la sottoscrizione dei Patti consentiranno ai comuni interessati di partecipare al bando di finanziamento con il quale il ministero dell’Interno supporta, con proprie risorse, la realizzazione sui territori di interventi in materia di sicurezza urbana.

Al termine della riunione, il prefetto ha sottolineato l’importanza dei sistemi di videosorveglianza, fondamentali per rafforzare gli interventi di prevenzione in un’ottica di “sicurezza integrata”. Ha evidenziato, infine, come tali dispositivi supportino l’attività della polizia giudiziaria, favorendo lo scambio informativo tra le diverse Forze di polizia, migliorando così l’efficacia complessiva dell’azione di sicurezza sul territorio.

Fonte: Ministero dell’Interno