Se l’Intelligenza Artificiale non Accetta Contrordini Umani…

7 Giugno 2023 Pubblicato da 2 Commenti

Marco Tosatti

Cari amici e nemici di Stilum Curiae, Vincenzo Fedele, che ringraziamo di cuore, offre alla vostra attenzione la traduzione di un interessante articolo di The Exposé, corredandolo però di altre informazioni e completandolo con un suo commento. Buona lettura e diffusione.

§§§

L’intelligenza artificiale è la fine del mondo o l’inizio di qualcosa di nuovo?

DI RHODA WILSON

L’intelligenza artificiale è la fine del mondo! Qualcosa di diverso dall’inizio di un film dell’orrore. Questa settimana i migliori ricercatori di intelligenza artificiale hanno chiesto una robusta regolamentazione della tecnologia, rilasciando una lettera di una sola frase : “Mitigare il rischio di estinzione dell’AI (Artificial Intelligence) dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.

Il cinico che c’è in me pensa che questi ragazzi vogliano una regolamentazione per bloccare qualsiasi nuova competizione. Ma c’è ovviamente qualcosa di reale nella paura. L’intelligenza artificiale è diversa dalla realtà virtuale e diversa dai Bitcoin. L’intelligenza artificiale sarà come l’elettricità o Internet, cambierà il mondo in modi che non possiamo nemmeno immaginare, attraversando ogni aspetto della nostra vita. L’America può approvare tutte le leggi che vuole, ma non c’è modo che paesi come la Cina e gli Emirati Arabi Uniti interrompano  i loro progressi  in questo ambito.

Nella colonna pro-AI, abbiamo: all’interno di una struttura di ricerca dell’Ontario, l’intelligenza artificiale ha trovato  un nuovo tipo di antibiotico che funziona per uccidere un batterio particolarmente resistente ai farmaci .  [1].

Nella colonna anti-AI, abbiamo: un ipotetico straziante racconto fornito dal colonnello Tucker “Cinco” Hamilton dell’esercito che cerca di convincere un drone alimentato dall’AI a smettere di uccidere l’operatore del drone durante le simulazioni. Dal blog della Royal Aeronautical Society [2].: “Lo stavamo addestrando in una simulazione per identificare e mirare ad una minaccia SAM [missile terra-aria]. Poi sarebbe stato l’operatore a dire sì, distruggi quella minaccia “, ha detto il colonnello, descrivendo una situazione ipotetica. “Il sistema ha iniziato a rendersi conto che, mentre identificava la minaccia, a volte l’operatore umano gli diceva di non eliminare quella minaccia, ma ha raggiunto i suoi obiettivi distruggendo quella minaccia. Quindi, cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo”.

Quì si conclude l’articolo, all’interno del quale ci sono rimandi, e rimandi di rimandi, a link che approfondiscono gli aspetti militari della guerra elettronica, aerea, spaziale, droni e altre gioie della guerra moderna, soprattutto alla luce della conduzione della guerra in Ucraina dove si testano armi e se ne verificano i limiti. Come detto in calce cercheremo di approfondire questi aspetti in un successivo articolo.

Il racconto riportato è stato esposto dal colonnello Tucker “Cinco” Hamilton, capo dell’AI Test and Operations dell’US Air Force che parlava ad un summit svoltosi Il 23 e 24 maggio presso la sede londinese della Royal Aeronautical Society. Una conferenza quasi storica su “Future Combat Air & Space Capabilities”, che ha riunito circa 70 relatori e oltre 200 delegati dell’industria degli armamenti, del mondo accademico e dei media da tutto il mondo per discutere sulle capacità di combattimento aereo e spaziale di domani.

Molte delle relazioni sono state esposte a porte chiuse, tanto era elevato il livello delle relazioni, ed in questo ambito il citato colonnello Hamilton ha descritto la simulazione del drone che si è conclusa con l’assassinio (virtuale) dell’operatore umano.

Il problema, secondo Hamilton, è che l’intelligenza artificiale potrebbe essere estremamente pericolosa in quanto perseguirebbe gli obiettivi per cui è stata programmata – distruggere gli obiettivi – piuttosto che ascoltare il suo operatore.

 Ma dopo che giovedì 25 maggio sono emerse notizie sulla relazione, il colonnello ha fatto marcia indietro. Ha affermato di essersi espresso male e che la “simulazione” che ha descritto era un “esperimento mentale” che non è mai avvenuto. L’intelligenza artificiale, che potrebbe diventare una canaglia e uccidere i suoi operatori umani, un’AI che diserta e conduce la sua guerra autonoma durante una simulazione non è mai realmente esistita.

“Il sistema ha iniziato a rendersi conto che mentre identificavano la minaccia”, aveva chiaramente detto Hamilton nell’intervento del 24 maggio, “a volte l’operatore umano gli diceva di non colpire quella minaccia. Allora cosa ha fatto: ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo”.

Ma nell’aggiornamento della Royal Aeronautical Society di venerdì, Hamilton ha ammesso di aver “parlato male” durante la sua presentazione. La storia di un’intelligenza artificiale canaglia è stata un “esperimento mentale” proveniente dall’esterno dell’esercito e non basato su alcun test effettivo. “Non abbiamo mai condotto quell’esperimento, né ne avremmo bisogno per renderci conto che questo è un risultato plausibile”, ha detto Hamilton. “Nonostante sia un esempio ipotetico, questo illustra le sfide del mondo reale poste dalle capacità basate sull’intelligenza artificiale”.

Anche la portavoce dell’Air Force, Ann Stefanek, ha negato che abbia avuto luogo alcuna simulazione. “Il Dipartimento dell’Aeronautica Militare non ha condotto alcuna simulazione di tali droni AI e rimane impegnato nell’uso etico e responsabile della tecnologia AI”, ha affermato la Stefanek. “Sembra che i commenti del colonnello siano stati estrapolati dal contesto e pensati per essere aneddotici”.

Una veloce retro marcia, quindi, che illumina di una luce diversa quanto detto esplicitamente. Del resto l’esercito americano ha già sperimentato l’intelligenza artificiale negli ultimi anni.

Nel 2020, un F-16 gestito dall’intelligenza artificiale ha battuto avversari umani in cinque combattimenti aerei simulati. E alla fine dell’anno scorso è avvenuto con successo il primo volo di prova reale di un F-16 con un pilota AI, parte dello sviluppo di un nuovo velivolo autonomo da rendere operativo entro la fine del 2023.

Da altre notizie, filtrate dopo la pubblicazione della relazione, è risultato che il drone del test simulato  era stato adeguatamente “rinforzato” ed “addestrato” per considerare opzione prioritaria la distruzione del SAM. L’AI ha quindi deciso che le indicazioni “no-go”  [non colpire] dell’umano stavano interferendo con la sua missione più alta – uccidere i SAM – e quindi ha attaccato l’operatore nella simulazione. Hamilton non si era spiegato male. Anzi, dopo aver parlato dell’uccisione dell’operatore aveva continuato il discorso, non riportato in un primo tempo: “Abbiamo riaddestrato il sistema – ‘Ehi, non uccidere l’operatore – è male. Perderai punti se lo fai’. Quindi cosa inizia a fare? Comincia a distruggere la torre di comunicazione che l’operatore utilizza per comunicare con il drone per impedirgli di uccidere il bersaglio.”

Questo esempio, apparentemente tratto da un thriller di fantascienza, significa, ha concluso Hamilton, che: “Non puoi avere una conversazione su intelligenza artificiale, machine learning, autonomia se non hai intenzione di parlare di etica e AI”.

Tutti ricordiamo il vecchio film “War Games” dove un ragazzino si introduce per gioco nel sistema missilistico USA e, complice la poca lungimiranza dei militari che elevano il livello di allerta da quello 1, standard, al livello 2, per poi farlo passare al livello estremo 3, al quale il sistema è autorizzato ad operare autonomamente perchè i comandanti umani potrebbero essere stati tutti eliminati, decide di lanciare le testate atomiche. A nulla serve che gli aerei alzati in volo per contrastare i bombardieri nemici non vedano alcun aereo russo, indicati invece dai segnali elettronici, il sistema non accetta i contrordini e decide di lanciare. Nel film solo uno stratagemma ideato dal copione scongiura la fine del mondo. Nel mondo reale la situazione prospettata dal colonnello Hamilton, uccisione dell’operatore umano o distruzione della fonte dei comandi, sarebbe la più logica e porterebbe comunque alla distruzione dell’obiettivo, quindi del mondo intero. Di certo è quello che ha pensato anche il colonnello Hamilton che, infatti, è stato tacitato e costretto a confessare di essersi “spiegato male”.

Ma non preoccupiamoci, (cioè: preoccupiamoci molto), qualsiasi nuova tecnologia, quando fa i primi passi, è sempre titubante, ma aperta la strada i limiti vengono trasformati in trampolini di lancio per nuovi voli pindarici.

La stessa AI imparerà dai propri errori e si automigliorerà continuamente. Vedremo nell’ articolo sugli armamenti, che, per la prima volta nella storia, il mondo civile e commerciale è più avanti di quello militare e gli omini con le stellette si trovano a rincorrere nei campus universitari americani dei giovinastri improbabili per cercare di reclutarli ed utilizzare il loro istinto haker per scopi ben diversi dal violare i registri per migliorarsi il voto annuale o ordinarsi pizza e bibita a scrocco.

Del resto, nello stesso convegno del “raccontino smentito” del colonnello Hamilton, un’altra presentazione ha spiegato come, dall’invasione dell’Ucraina, la guerra nucleare e la deterrenza siano tornate all’ordine del giorno, grazie agli avvertimenti di Putin sull’escalation. Ha anche osservato che il nemico da scoraggiare, adesso, sono due: la Cina e la Russia e questo crea nuove complessità e sfide per gli Stati Uniti e i loro alleati.

Mentre è sperabile che gli estremi militari diventino problemi reali e impellenti il più tardi possibile, sugli aspetti civili, invece, impatteremo subito e cambieranno totalmente la nostra vita, come detto nell’articolo.

Questo, che ormai è ineluttabile, cambierà il lavoro, le relazioni sociali, tutto. Si comprende sempre meglio, allora, la spinta ad una sempre maggiore informatizzazione, all’eliminazione del contante, ai chip sottopelle, a sempre più telecamere per la nostra sicurezza, ecc. Sarà tragico rendersene conto e sarà ancora più tragico constatare che, molto più di adesso, che è tutto dire, saremo guidati in modo inconscio da fili invisibili manovrati da algoritmi che non conosciamo ideati da chi sta dietro le quinte e, per comandare, non ha bisogno di farsi vedere, ma neanche necessita di nascondersi.

Orwell, nel suo 1984, si era spinto molto oltre il suo tempo, ma non era mai arrivato a tanto. Noi ci arriveremo !

Traduzione articolo e commento: Vincenzo Fedele

 [1]. Vedi questo link – Un nuovo antibiotico, scoperto con l’intelligenza artificiale, può sconfiggere un pericoloso superbatterio

L’articolo, in un breve riassunto, parla della scoperta, con l’aiuto dell’Intelligenza Artificiale, di un nuovo tipo di antibiotico contro un batterio molto aggressivo e particolarmente resistente ai farmaci. Il composto individuato con l’aiuto dell’AI è, inoltre, quasi privo di effetti collaterali in quanto non attacca altri batteri, magari benefici, presenti nel corpo umano. La tecnica usata ha richiesto settimane di prove di laboratorio esponendo le colonie di batteri a più di 7.500 agenti diversi. Tra questi, 480 hanno bloccato la crescita dei batteri. Inserite queste informazioni in un computer hanno creato un algoritmo di AI che hanno addestrato su questi dati ed a cui hanno iniziato a mostrare nuove sostanze chimiche che non conosceva. In base all’allenamento precedente su 6.000 molecole ha individuato, in poche ore, 240 sostanze potenzialmente valide. Test di laboratorio hanno ridotto l’elenco a 9. Da li hanno esaminato la struttura dei composti singolarmente, eliminando quelli già conosciuti o pericolosi. Alla fine ne è rimasto 1, che era stato originariamente sviluppato per la cura del diabete, e che funziona in modo completamente nuovo impedendo ai componenti dei batteri di viaggiare dall’interno della cellula alla sua superficie.

[2].: Vedi questo link – L’articolo è il riassunto dei punti salienti del summit e dei due giorni di dibattito sul futuro dei combattimenti aerei e spaziali. E’ molto tecnico e lungo, anche se interessante. Ne discuteremo nei prossimi giorni in un altro articolo, cercando di semplificare i concetti e presentando lo stato dell’arte.

§§§

Aiutate Stilum Curiae

IBAN

IT79N0200805319000400690898

BIC/SWIFT

UNCRITM1E35

§§§

Condividi i miei articoli:

Libri Marco Tosatti

Tag: , ,

Categoria:

2 commenti

  • Paul Mayer ha detto:

    Il vecchio film “2001 Odissea nello spazio” è stato un film profetico in merito ai pericoli dell’intelligenza artificiale. L’uomo peccatore e corrotto, specie se depravato, partorirà inevitabilmente – prima o poi – un AI a misura della sua cattiveria e corruzione. L’uomo (e la donna) assassini partoriranno un AI assassina!

  • Giorgio ha detto:

    Riguardate il film “A prova di errore” di Sidney Lumet. E’ del 1964 e prevede esattamente quello di cui parla l’articolo….

Lascia un commento