ASI, La super intelligenza artificiale che fa paura ancor prima di nascere!
- Confronto Scuola
- 19 nov
- Tempo di lettura: 2 min
Mentre scrivo, le firme continuano a salire. E non si tratta di firme qualunque: tra loro compaiono alcuni dei massimi studiosi di intelligenza artificiale al mondo, insieme a leader politici, imprenditori, personalità pubbliche. Tutti uniti da una richiesta semplice nella forma, ma dirompente nella sostanza: vietare lo sviluppo della superintelligenza artificiale (ASI) finché non sarà garantita piena sicurezza, controllabilità e un chiaro consenso pubblico.

L’appello è accompagnato da una breve premessa che spiega il contesto: l’intelligenza artificiale sta già portando benefici straordinari in medicina, produttività e qualità della vita. Ma accanto agli strumenti oggi disponibili, diverse aziende hanno dichiarato l’obiettivo – entro i prossimi dieci anni – di creare una superintelligenza capace di superare l’essere umano in quasi tutte le attività cognitive. È una prospettiva che, per molti esperti, apre scenari inquietanti: perdita di lavoro e potere decisionale, compromissione di diritti e libertà, vulnerabilità della sicurezza nazionale, fino alla possibilità estrema – ma non più ignorata – di una minaccia esistenziale per l’umanità.
Ad oggi, la superintelligenza non esiste. E secondo molti studiosi potrebbe non esistere mai. Ma se mai dovesse emergere, sarebbe il primo sistema creato dall’uomo in grado di superarlo in tutto: conoscenze, capacità analitiche, strategia, adattamento. È proprio questa sproporzione tra potenziale e controllo a generare le maggiori preoccupazioni.
Sul sito dedicato è possibile scorrere l’elenco dei firmatari, suddivisi per ambiti. Tra i nomi più rilevanti compaiono Geoffrey Hinton, premio Nobel e figura centrale nella storia dell’IA moderna; Yoshua Bengio, lo scienziato più citato al mondo nel settore; e Stuart Russell, autore di riferimento per l’etica e la sicurezza dei sistemi intelligenti. Ma accanto a loro ci sono anche personaggi pubblici come Steve Wozniak, Harry e Meghan Markle, Steve Bannon, Richard Branson e figure legate alla sicurezza nazionale statunitense come Susan Rice e l’ammiraglio Mike Mullen.
Il promotore dell’appello è il Future of Life Institute, già noto per iniziative internazionali sul tema del rischio tecnologico avanzato. I sistemi di IA più avanzati potrebbero superare presto la capacità cognitiva della maggior parte delle persone. Questo potrebbe aprire a progressi enormi, ma anche a rischi che non siamo pronti a gestire. Perciò – afferma – è necessario un lavoro scientifico rigoroso per progettare sistemi incapaci di danneggiare l’essere umano, e soprattutto un processo decisionale che coinvolga il pubblico, non solo le aziende.
In mezzo a questo scontro tra innovazione e cautela si trova il mondo della scuola. Le linee guida del MIM chiedono un uso dell’intelligenza artificiale fondato su un approccio etico, antropocentrico, e sulla formazione di cittadini capaci di utilizzare questi strumenti in modo critico. Un compito complesso, soprattutto in un momento in cui la pressione degli interessi economici è talmente forte da dare l’impressione di trovarsi in un frullatore che spinge tutti nella stessa direzione, senza che sia chiaro quale sia.
Nel frattempo, mentre gli appelli circolano e i dibattiti si accendono, il numero delle firme continua a salire. Segno che la questione non riguarda più soltanto specialisti e ricercatori, ma un’opinione pubblica sempre più consapevole di trovarsi di fronte a un bivio storico.
#intelligenzaartificiale #superintelligenza #AI #sicurezzaAI #eticaAI #regolamentazioneAI #futureoflife #tecnologia #innovazione #digitale #scuola #docenti #educazione #didattica #competenzeDigitali #IAresponsabile #AIethics #AIgovernance #algoritmi #tecnologieemergenti #futuro #societàdigitale #sicurezzadati #dirittidigitali #rischiAI #sviluppoTecnologico #umanovsmacchina #AIawareness #responsabilità #confrontoscuola




Commenti