L'AI Act vieta alcuni utilizzi dell'IA da febbraio 2025. Scoring sociale, manipolazione, riconoscimento delle emozioni: il quadro completo.
Ancora prima di affrontare i sistemi ad alto rischio, gli obblighi di trasparenza o la competenza in IA, il Regolamento Europeo sull’Intelligenza Artificiale (Regolamento 2024/1689) traccia delle linee rosse assolute. L’Articolo 5 elenca le pratiche di IA semplicemente vietate nell’Unione Europea.
Questi divieti sono in vigore dal 1° febbraio 2025. Non sono scadenze future: si applicano ora.
Articolo 5, paragrafo 1 — Règlement (UE) 2024/1689
Sono vietate le seguenti pratiche di intelligenza artificiale: […] l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali […] o tecniche deliberatamente manipolative o ingannevoli, con l’obiettivo o l’effetto di distorcere materialmente il comportamento di una persona […] in modo da causare o essere ragionevolmente suscettibile di causare un danno significativo a tale persona o a un’altra persona.
L’AI Act vieta i sistemi che valutano o classificano le persone fisiche sulla base del loro comportamento sociale o di caratteristiche personali, quando tale punteggio comporta un trattamento sfavorevole in contesti non correlati alla raccolta dei dati, o sproporzionato rispetto al comportamento in questione.
Attenzione: contrariamente a quanto si crede spesso, questo divieto non si rivolge solo ai governi. Si applica anche agli attori privati. Un’azienda che costruisse un “punteggio di affidabilità” dei propri clienti aggregando dati di pagamento, comportamento online e interazioni con il servizio clienti — e utilizzasse tale punteggio per rifiutare servizi — sarebbe in violazione.
Esempi concreti di pratiche ora illegali:
Qualsiasi sistema di IA progettato per alterare il comportamento di una persona a sua insaputa è vietato. Questo copre le tecniche subliminali (stimoli impercettibili alla coscienza) e le tecniche deliberatamente manipolative o ingannevoli.
Esempi:
I sistemi di IA che sfruttano le vulnerabilità legate all’età, alla disabilità o alla situazione sociale o economica di una persona per distorcerne materialmente il comportamento sono vietati.
Esempi:
L’uso di sistemi di identificazione biometrica a distanza “in tempo reale” negli spazi accessibili al pubblico a fini di contrasto è vietato, con tre eccezioni rigorosamente circoscritte:
Anche in questi casi, l’uso richiede un’autorizzazione giudiziaria preventiva ed è soggetto a garanzie rigorose. In Italia, il Garante per la protezione dei dati personali ha già assunto una posizione rigorosa su queste tematiche, come dimostrato dalle sue decisioni sul riconoscimento facciale in contesti pubblici.
Articolo 5, paragrafo 1, lettera f — Règlement (UE) 2024/1689
[È vietata] l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA per dedurre le emozioni di una persona fisica sul luogo di lavoro e negli istituti di istruzione, tranne quando l’uso del sistema di IA è destinato a essere introdotto o immesso sul mercato per motivi medici o di sicurezza.
Questo divieto è particolarmente rilevante per le aziende. Copre:
Le uniche eccezioni: usi a finalità medica (rilevamento del dolore in pazienti non comunicanti, per esempio) o di sicurezza (rilevamento della fatica nei conducenti professionisti).
L’AI Act vieta la creazione o l’ampliamento di database di riconoscimento facciale attraverso la raccolta non mirata di immagini da internet o da filmati di videosorveglianza. È una risposta diretta alle pratiche di aziende come Clearview AI, che aveva costruito un database di miliardi di volti raccogliendo foto pubbliche. In Italia, il Garante per la protezione dei dati personali aveva già sanzionato Clearview AI con una multa di 20 milioni di euro nel 2022 per violazione del GDPR — l’AI Act rafforza ora ulteriormente questo divieto.
📄Rischi dell'IA in azienda: identificare e gestire efficacemente→La maggior parte delle aziende pensa istintivamente che questi divieti non la riguardino. Ma certi utilizzi, in particolare nelle risorse umane e nel marketing, possono avvicinarsi pericolosamente.
Poniti queste domande:
Se la risposta a una di queste domande è “sì” o “forse”, è necessaria un’analisi approfondita.
La conoscenza di questi divieti da parte dei collaboratori è essenziale. L’obbligo di competenza in IA (Articolo 4) include necessariamente la comprensione di ciò che è vietato. Un collaboratore che non sa che è illegale utilizzare il riconoscimento delle emozioni in contesto professionale non può segnalare un utilizzo non conforme.
La formazione dei team su questi divieti non è opzionale — è una condizione preliminare per qualsiasi governance dell’IA responsabile.
📄AI Act Articolo 4: l'obbligo di formazione sull'IA spiegato→Le pratiche vietate sono soggette al livello più elevato di sanzioni dell’AI Act: fino a 35 milioni di euro o il 7% del fatturato annuo mondiale, prevalendo l’importo più elevato. Sono le sanzioni più pesanti mai previste da una regolamentazione digitale europea — superiori a quelle del GDPR.
Ce que ça implique pour vous
I divieti dell’Articolo 5 sono in vigore dal 1° febbraio 2025. Scoring sociale, manipolazione tramite IA, riconoscimento delle emozioni sul lavoro: queste pratiche sono ora illegali, con sanzioni fino a 35 milioni di euro. La sfida per le aziende è duplice: verificare immediatamente che nessuno strumento di IA in uso oltrepassi queste linee rosse, e formare i team a riconoscere gli usi vietati prima che si verifichi un incidente.