Home Blog Pagina 76

“Dibattito in Senato sui Disegni di Legge per le Guardie Giurate: ASSIV Chiede un Confronto Più Inclusivo e Critica l’Esclusione dalle Audizioni”

“Dibattito in Senato sui Disegni di Legge per le Guardie Giurate: ASSIV Chiede un Confronto Più Inclusivo e Critica l’Esclusione dalle Audizioni”

In queste ultime settimane sono stati discussi in Commissione 1^ Affari Costituzionali del Senato i disegni di legge “Disposizioni in materia di Guardie Giurate”. Come ASSIV abbiamo contribuito al dibattito evidenziando il pieno apprezzamento per l’attenzione dimostrata alle problematiche del settore, tuttavia sottolineando come la strada indicata dai ddl in questione non sia quella corretta per la loro soluzione.

In tale ottica, riteniamo corretto che l’Ufficio di presidenza della Commissione abbia aperto un necessario ciclo di audizioni. Ma in proposito non possiamo non manifestare la nostra profonda perplessità rispetto i criteri sulla base dei quali sono stati individuati i soggetti da audire, escludendo le due associazioni datoriali più rappresentative del comparto, ovvero ASSIV, punto di riferimento in Confindustria, e la Lega delle Cooperative, nonché i sindacati maggiormente rappresentativi degli operatori della vigilanza armata e non armata, consentendo loro di intervenire nel dibattito solamente attraverso testi scritti.

Restiamo profondamente convinti che solo con il confronto virtuoso tra istituzioni e organizzazioni di categoria rappresentanti del comparto possano essere formulate leggi che, perseguendo l’interesse comune, risultino utili alle aziende, ai lavoratori e alla Pubblica Amministrazione.

Non possiamo peraltro non notare una certa difficoltà che si sta avendo nel prosieguo dei lavori, apprendiamo infatti che non è stata accolta nell’ultima seduta in Commissione (la scorsa settimana) la proposta del relatore di adottare il disegno di legge n. 902, a prima firma del senatore Balboni, come testo base per il seguito dell’esame. 

Non solo il Movimento 5 stelle, ma la Lega stessa, per voce delle senatrici Spelgatti e Pirovano reputa opportuno un approfondimento prima di adottare il testo base e ha chiesto quindi di rinviare la decisione sull’adozione del testo base. Proposta accolta del presidente, con il seguito della discussione rinviato alla riapertura dei lavori del Senato a settembre. 

Rimaniamo quindi, da parte nostra, come sempre in passato e ancor più in questo frangente, pienamente disponibili ad avviare con gli onorevoli senatori un confronto ampio e articolato, che partendo da una approfondita analisi della situazione di fatto, voglia risolvere i problemi che denunciamo pubblicamente da anni in tutte le sedi istituzionali.

L’inferno della vigilanza privata

L’inferno della vigilanza privata

di Carmelo Burgio pubblicato su l’ecodelsud.it

Nata come la vigilanza povera, quella che in bicicletta, in uniformi sformate, passava la notte a infilare bigliettini nei portoni a comprovare il passaggio di controllo, è oggi assurta a partner obbligato – magari un po’ tollerato e guardato con sufficienza – nel mondo della sicurezza.

Trasporto e custodia dei valori le sono stati appaltati, non essendo remunerativo per istituti di credito, uffici postali e grandi soggetti commerciali farsene carico. All’estero a loro si affida la protezione dei vettori navali in zone afflitte da pirateria, e in Italia, se vuoi davvero una vigilanza continua ad un obbiettivo privato, anche solo in termini di dissuasione, è alla vigilanza privata che si fa ricorso. Eppure sono rimasti i parenti poveri.

Fors’anche per il periodico scoppio di vicende giudiziarie non certo edificanti, come quella che ha colpito qualche giorno fa una nota sigla nata in Calabria, che sarebbe rea di caporalato e comportamenti a mezzo fra il vessatorio e il ricatto.
Non tutte le ditte sono così, e anche questa volta c’è comunque da attendere il verdetto finale di un giudice.

Chi pratica il settore sa che ci son ditte che investono, che spendono per addestrare il personale, per vestirlo adeguatamente, per dotarlo di mezzi e infrastrutture che limitino il rischio cui sono esposti gli operatori. Sovente tali investimenti superano anche il livello delle prescrizioni emanate dall’Autorità di Pubblica Sicurezza. Talvolta, e accade, vi son perfino istituti che riconoscono salari leggermente superiori a quanto stabilito in sede di contrattazione collettiva, facendo anche ricorso a benefits, perché non è facile assumere personale.

Provate solo, per strada, a guardare le uniformi: ne vedrete di qualità, ma talvolta capita di trovarsi davanti al tragico frutto di collage di più marchi, perché la GPG (Guardia Particolare Giurata) deve utilizzare magari il cinturone o il berrettino di lana della ditta per la quale lavorava precedentemente, perché la nuova, semplicemente, vuol risparmiare. Inconvenienti che sorgono nel succedersi di imprese in un appalto, legato a richieste di millesimali riduzioni da parte della clientela, in sede di gare.

Ma pochi vanno a guardare a monte. Se i vigilantes sono “brutti, sporchi e cattivi”, in una riedizione del noto film con Nino Manfredi, e le ditte che danno loro lavoro appartengono ad analoga categoria, i clienti son tutti degni della massima stima e considerazione. E nessuno va a verificare che a volte faccian “cartello” per ribassare i prezzi, e pongano basi d’asta tali che alla guardia, al netto di utili d’azienda, tasse e contributi, possa andare ben poco.

Ma questi clienti, con colletto bianco e cravatta di marca o tailleur firmato, la sfangano alla grande e sono esenti da critiche. Sono tutti i grandi stakeholders che fanno bella e comoda la nostra vita: Poste Italiane, Amazon, RAI, MEDIASET, EATALY, Autostrade, Trenitalia, Aeroporti di Roma o Milano, etc., senza dimenticare ministeri, Aziende Sanitarie Locali e perfino palazzi di giustizia. Tutti ben saldi nel pagare pochissimo per i servizi “ancillari”, dalle pulizie alla vigilanza e sicurezza.

Nessuno dice che per primi son loro che pretendono tariffe minime e magari ribassi al limite del sottrarre il pane di bocca, per incrementare gli utili per l’azionista. Poi magari si scoprono etici nel ridurre l’emissione di CO2, nel piantumare aiuole, nell’installare pannelli solari, fregandosene che facciano la fame l’uomo o la donna addetti a incombenze comunque vitali per l’azienda. Potranno a volte essere anche gente poco qualificata, non certo in possesso di titoli accademici, e spesso non per loro colpa, ma son lavoratori, a mio parere più importanti del gusto che si prova ad ammirare un autogrill che sembra un giardino pensile di Babilonia.

Beh, si sappia che oltre a esserci chi nel settore degli Istituti di Vigilanza investe in mezzi, strutture e addestramento, c’è anche chi – magari lo stesso soggetto – rifiuta di partecipare a determinati bandi, sapendo che andranno vinti da chi fa lo squalo come 2° lavoro, e chiede pochissimo, disposto poi a rivalersi sul dipendente con clausole-capestro e – talvolta – mezze estorsioni. Perché accade.

Inutile sperare che le ditte “brutte, sporche e cattive” facciano cartello a loro volta – di per sé illegale – per alzare le tariffe e renderle adeguate a garantire un guadagno equo all’operatore. Ma con tutta l’eticità che trasuda dalle grandi aziende che ho nominato, Stato compreso, e dalle altre che non ho elencato per brevità, non sarebbe tempo di aspettarci un intervento concordato fra colletti bianchi con belle cravatte e severi tailleurs con spilla d’oro e corallo, per non ridurre anche quest’anno rispetto al precedente il CO2 emesso, non aumentare la quantità d’energia riciclata, e dedicarsi, una volta tanto, a quella sfigatissima gente che per sbarcare il lunario deve pulirgli scale, bagni, uffici, e vigilarglieli?

Leggi l’articolo su l’econdelsud.it

ASSIV: “Sincero Apprezzamento alla Sen. Erika Stefani per l’Interrogazione sui recenti assalti ai portavalori: Richiesta di Maggiore Sicurezza e Tavolo Ministeriale”

ASSIV: “Sincero Apprezzamento alla Sen. Erika Stefani per l’Interrogazione sui Recenti Assalti ai Portavalori: Richiesta di Maggiore Sicurezza e Tavolo Ministeriale”

Esprimiamo un sincero apprezzamento per la presentazione da parte della sen. Erika Stefani di un’interrogazione a risposta scritta al ministro dell’Interno a seguito dei drammatici eventi di assalto ai portavalori in Puglia e al caveau a Sassari. Con tale interrogazione la senatrice della Lega sollecita azioni che possano garantire maggiore sicurezza al personale addetto alla custodia e al trasporto dei valori, e, allo stesso tempo, chiede al ministro se non sia opportuno “istituire un tavolo ministeriale che coinvolga le parti interessate al fine di trovare delle soluzioni condivise che possano in qualche modo prevenire futuri assalti armati ai portavalori”.

Si tratta di una proposta in linea con quanto richiesto recentemente con lettera ufficiale al ministro Piantedosi, e a seguito della quale era stato convocato un tavolo di confronto istituzionale, poi spostato a nuova data. Grazie quindi ancora alla sen. Stefani per il suo supporto.

Scarica l’interrogazione parlamentare

Commissione Ue: entra in vigore il regolamento sull’IA

Oggi entra in vigore la legge europea sull’intelligenza artificiale (legge sull’IA), il primo regolamento globale sull’intelligenza artificiale al mondo. La legge sull’IA è concepita per garantire che l’IA sviluppata e utilizzata nell’UE sia affidabile, con garanzie per proteggere i diritti fondamentali delle persone. Il regolamento mira a istituire un mercato interno armonizzato per l’IA nell’UE, incoraggiando l’adozione di questa tecnologia e creando un contesto favorevole all’innovazione e agli investimenti.

La legge sull’IA introduce una definizione lungimirante di IA, basata su un approccio basato sulla sicurezza dei prodotti e sul rischio nell’UE:

  • Rischio minimo: La maggior parte dei sistemi di IA, come i sistemi di raccomandazione basati sull’IA e i filtri spam, rientra in questa categoria. Tali sistemi non sono soggetti a obblighi ai sensi della legge sull’IA a causa del loro rischio minimo per i diritti e la sicurezza dei cittadini. Le imprese possono adottare volontariamente codici di condotta aggiuntivi.
  • Rischio specifico per la trasparenza: I sistemi di IA come i chatbot devono comunicare chiaramente agli utenti che stanno interagendo con una macchina. Alcuni contenuti generati dall’IA, compresi i deep fake, devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che il contenuto sintetico di audio, video, testo e immagini sia marcato in un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente.
  • Rischio elevato: I sistemi diIA identificati come ad alto rischio saranno tenuti a rispettare requisiti rigorosi, tra cui i sistemi di attenuazione dei rischi, l’elevata qualità dei set di dati, la registrazione delle attività, la documentazione dettagliata, informazioni chiare per gli utenti, la sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza. Gli spazi di sperimentazione normativa agevoleranno l’innovazione responsabile e lo sviluppo di sistemi di IA conformi. Tali sistemi di IA ad alto rischio comprendono, ad esempio, i sistemi di IA utilizzati per il reclutamento o per valutare se qualcuno ha diritto a ottenere un prestito o a gestire robot autonomi.
  • Rischio inaccettabile: I sistemi diIA considerati una chiara minaccia per i diritti fondamentali delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per eludere la libera volontà degli utenti, come i giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori, i sistemi che consentono il “punteggio sociale” da parte di governi o imprese e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per classificare le persone o l’identificazione biometrica remota in tempo reale a fini di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

A integrazione di tale sistema, la legge sull’IA introduce inoltre norme per i cosiddetti modelli di IA per finalità generali, che sono modelli di IA altamente capaci progettati per svolgere un’ampia gamma di compiti, come la generazione di testi di tipo umano. I modelli di IA per finalità generali sono sempre più utilizzati come componenti delle applicazioni di IA. La legge sull’IA garantirà la trasparenza lungo la catena del valore e affronterà i possibili rischi sistemici dei modelli più capaci.

Applicazione e applicazione delle norme in materia di IA

Gli Stati membri hanno tempo fino al 2 agosto 2025 per designare autorità nazionali competenti, che vigileranno sull’applicazione delle norme per i sistemi di IA e svolgeranno attività di vigilanza del mercato. L’ufficio per l’IA della Commissione sarà il principale organismo di attuazione della legge sull’IA a livello dell’UE, nonché il responsabile dell’applicazione delle norme per i modelli di IA per finalità generali.

Tre organi consultivi sosterranno l’attuazione delle norme. Il comitato europeo per l’intelligenza artificiale garantirà un’applicazione uniforme della legge sull’IA in tutti gli Stati membri dell’UE e fungerà da principale organo per la cooperazione tra la Commissione e gli Stati membri. Un gruppo scientifico di esperti indipendenti fornirà consulenza tecnica e contributi sull’applicazione delle norme. In particolare, questo gruppo di esperti può inviare segnalazioni all’Ufficio per l’IA in merito ai rischi associati ai modelli di IA per finalità generali. L’Ufficio per l’IA può anche ricevere orientamenti da un forum consultivo, composto da una serie diversificata di portatori di interessi.

Le imprese che non rispettano le norme saranno sanzionate. Le sanzioni pecuniarie potrebbero arrivare fino al 7 % del fatturato annuo globale per le violazioni di applicazioni di IA vietate, fino al 3 % per le violazioni di altri obblighi e fino al 1,5 % per la fornitura di informazioni inesatte.

Prossime fasi

La maggior parte delle norme della legge sull’IA inizierà ad applicarsi il 2 agosto 2026. Tuttavia, i divieti dei sistemi di IA che si ritiene presentino un rischio inaccettabile si applicheranno già dopo sei mesi, mentre le norme per i cosiddetti modelli di IA per finalità generali si applicheranno dopo 12 mesi.

Per superare il periodo transitorio prima della piena attuazione, la Commissione ha varato il patto per l’IA. La presente iniziativa invita gli sviluppatori di IA ad adottare volontariamente gli obblighi fondamentali della legge sull’IA prima delle scadenze legali. 

La Commissione sta inoltre elaborando orientamenti per definire e precisare le modalità di attuazione della legge sull’IA e facilitare strumenti di coregolamentazione come le norme e i codici di condotta. La Commissione ha lanciato un invito a manifestare interesse a partecipare all’elaborazione del primo codice di buone pratiche per finalità generali in materia di IA, nonché una consultazione multilaterale che offre a tutti i portatori di interessi l’opportunità di esprimersi sul primo codice di buone pratiche ai sensi della legge sull’IA.

Contesto

Il 9 dicembre 2023 la Commissione ha accolto con favore l’accordo politico sulla legge sull’IA. Il 24 gennaio 2024 la Commissione ha varato un pacchetto di misure a sostegno delle start-up e delle PMI europee nello sviluppo di un’IA affidabile. Il 29 maggio 2024 la Commissione ha reso noto l’Ufficio per l’IAIl 9 luglio 2024 è entrato in vigore il regolamento modificato relativo all’impresa comune EuroHPC, che consente la creazione di fabbriche di IA. Ciò consente l’uso di supercomputer dedicati all’IA per la formazione di modelli di IA per finalità generali (GPAI).

La prosecuzione di ricerche indipendenti e basate su dati concreti prodotte dal Centro comune di ricerca (JRC) è stata fondamentale per definire le politiche dell’UE in materia di IA e garantirne l’effettiva attuazione.

Per maggiori informazioni

Legge europea sull’intelligenza artificiale

Nuove regole per l’intelligenza artificiale — Domande e risposte 

Ufficio europeo per l’IA | Plasmare il futuro digitale dell’Europa

Fonte: Commissione europea