Il prefetto Frattasi: “Attenti all’AI, è come Oppenheimer…”

Il direttore dell’Agenzia nazionale per la Cybersicurezza nazionale fa una sorta di allarme

Il dibattito non finisce mai anzi ogni giorno e mese che passa non fa che allargarsi e svilupparsi. L’intelligenza artificiale, l’AI, può essere di grande aiuto, ma al tempo stesso sembra essere anche molto pericolosa. Lo dice Elon Musk da tempo, tanto che non si fida totalmente di questa nuovissima funzione, tanto che spesso non ha nascosto di ostacolarla un po’ perché, nonostante la elogi, credo allo stesso tempo che nel lungo periodo può essere pericolosa. E la definizione che le dà il prefetto Bruno Frattasi, nonché da marzo direttore dell’Agenzia nazionale della Cybersicurezza, è molto particolare: “L’ho definita una specie di momento Oppenheimer”. Una definizione che fa pensare, visto che viene citato lo scienziato che ha inventato la bomba atomica che ha fatto sì finire la guerra ma che ai tempi attuali è ritenuta molto pericolosa.

Il convegno
Un convegno sulla Cybersicurezza (Ansa Notizie.com)

Il paragone con Oppenheimer ha fatto discutere e sollevare anche alcune polemiche, ma Frattasi sottolinea: “E’ un parallelo e una definizione che ho preso dal mio predecessore Roberto Baldoni, quando io e lui parlavamo dell’AI subito dopo aver visto il film su Oppenheimer. Quello stesso scienziato era invaso dai dubbi mentre sperimentava l’ordigno nucleare e le conseguenze che poteva avere questo strumento micidiale, cosa che poi è avvenuta. Ecco noi secondo me stiamo vivendo un momento simile e dobbiamo stare attenti“.

“Si deve mettere una sorta di barriera”

La scelta
Il Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale Bruno Frattasi in audizione al Copasir (Ansa Notizie.com)

Per Frattasi, insomma, non è un argomento da trattare con leggerezza, tanto che si sta lavorando e studiando a un metodo che metta delle protezioni, “una sorta di guard rail, barriera“, sostiene il Prefetto Frattasi, anche perché “è impensabile che sia un solo paese a governare e a sviluppare l’AI, sarebbe una cosa pericolosa, quindi si devono mettere e sviluppare delle barriere per essere protetti in qualche modo”.

E Frattasi non si ferma e va avanti nelle sue idee: “Stiamo sviluppando la versione Hyper di un Soc (Security Operation Center) che si sta sviluppando a Napoli e si tratta di un elaboratore di elevata potenza che sviluppi una serie progressiva di Big Data, in modo tale che si tenda a controllare l’evoluzione dell’AI e si deve fare in fretta entro il 31 dicembre del 2024, cercando il più possibile di usare i fondi del Pnrr

 

Impostazioni privacy