02/05/2025

Passi avanti verso la legislazione sulla cyber sicurezza

Dopo anni di dibattiti e proposte legislative, il Consiglio dell’Unione Europea ha varato l’AI Act, una legge comunitaria che disciplina lo sviluppo, l’uso sul mercato e l’applicazione dell’intelligenza artificiale (IA) nell’Unione. Tra i tanti dettagli inclusi nella nuova legge ci sono divieti per l’uso dell’IA, controlli sui sistemi, governance ed obblighi per i sistemi ad alto rischio.

Il rischio di questa nuova tecnologia è alla base di questa iniziativa dell’UE, che richiede obblighi di trasparenza per accedere al mercato europeo. Ad esempio, il Consiglio ha vietato l’uso dei software di riconoscimento facciale in luoghi come le scuole e i posti di lavoro, ma dando il consenso di uso solo alle forze dell’ordine, sempre con condizioni rigorose. Il mondo digitale come quello dell’IA ha molti benefici e qualità, però spesso ha bisogno di regole chiare, soprattutto per la tutela dei consumatori europei.

Il Consiglio dell’Unione Europea ha dato particolare importanza a sistemi come ChatGPT che sono stati accusati di diffondere notizie false e di infrangere le leggi sui diritti d’autore. Con multe che possono arrivare fino a 35 milioni di euro o il 7% del fatturato globale per le imprese più grandi, l’AI Act entra in vigore venti giorni dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue.

Un’altra preoccupazione dei legislatori europei è la protezione della sicurezza informatica per gli utenti. Infatti, gli attacchi di hacker, i cyber criminali, sono sempre più diffusi in tutto il mondo. Tra i crimini digitali più diffusi c’è il ransomware, cioè quando gli hacker rubano le informazioni di cittadini di imprese e chiedono un riscatto per non pubblicarle online.

Questi crimini ammontano al 68% del totale mondiale e l’Italia è il terzo paese al mondo per numero di minacce e ransomware. Invece, il primo paese al mondo è la Francia, dove il 74% dei cyber crimini sono ransomware, seguita dal Sudafrica al 69%. Con una crescita del 3% rispetto al 2023, l’Italia si guadagna il terzo posto per minacce a consumatori ed imprese.

Nella maggioranza dei casi, gli hacker hanno rubato credenziali personali oppure hanno reso illeggibili i dati degli utenti. Nel 53% dei casi, le vittime hanno riavuto le proprie informazioni pagando il riscatto e solo il 42% ha stipulato un’assicurazione specifica per protezione in caso di cyber attacchi.

Proprio per prevenire questi attacchi, l’Aula della Camera italiano ha dato il via libera al ddl sulla cybersicurezza. Il testo del ddl prevede pene più severe per i reati informatici e l’obbligo per le amministrazioni di assumere un professionista responsabile della sicurezza digitale. Il prossimo passo è l’approvazione al Senato, per poter rendere il mondo online sempre più sicuro per tutti.

In questa corsa verso un universo digitale più sicuro, l’intelligenza artificiale può giocare un ruolo cruciale. Infatti, quando l’IA viene usata con attenzione e in modo cosciente, può aiutare gli utenti. Per questo, Google ha annunciato l’uso dell’IA del sistema Gemini per migliorare la cyber sicurezza. La nuova piattaforma si chiama Threat Intelligence, ed è un chatbot che permette di monitorare aziende e clienti per anticipare le minacce virtuali in pochi secondi.

“Gli approcci tradizionali richiedono molto lavoro e possono rallentare la capacità di rispondere alle minacce,” ha scritto Google sul sito ufficiale, “noi abbiamo aumentato le capacità di difesa e ridotto il tempo necessario per identificare e proteggerci dalle nuove minacce”.

Le possibilità della tecnologia sono quasi infinite e strumenti come i chatbot e i software di IA sono solo alcuni esempi di strumenti innovativi che assistono diverse industrie. Ci sono anche dispositivi come il sensore fotoelettrico per individuare e monitorare oggetti oppure i router per avere Internet sempre a portata di mano.