Questo articolo non è nient'altro che un riassunto di quel che era successo nel blog tecnico di Facebook, in cui si parlerà appunto di come dice nel titolo di questo articolo:
Proverò a riportare di quel che era successo a parole mie, cominciamo:
Da qualche tempo, nella casa del signor Zucchina, era in lavorazione alla realizzazione di bot capaci di dialogare con l'uomo all'interno di una chat e di condurre semplici trattative. Quindi venne fatto qualche esperimento grazie all'intelligenza artificiale, in cui vennero programmatori due bot di nome Bob e Alice ed essi vennero messi uno davanti all’altro per portare a termine uno scenario di collaborazione ipotetico: la suddivisione di alcuni oggetti da portare a termine con una contrattazione uno contro uno. Ad un certo punto, però, il dialogo è avanzato dall'inglese basilare, fino ad arrivare nella situazione in cui la conversazione tra i due bot ha preso una strana piega, ovvero avevano cominciato a fare un utilizzo delle parole e delle regole di lingua deforme, non più normata dalle regole sintattiche che conosciamo e dunque più vicina a un idioma ignoto, come se stessero parlando in una loro lingua e quindi interragivano seriamente.
Questo era il dialogo fra i due bot
I ricercatori furono rimasti talmente scioccati di questa cosa che dovetterò per forza staccare la spina all’esperimento e tanto sta bastando per gettare nel panico molti osservatori, preoccupati che l’intelligenza artificiale stia iniziando a cospirare contro di noi.
Poi riguardando bene di cosa si era scritto nel codice, si scoprì alla fine che in realtà non c’è stato alcun intento rivoluzionario da parte di Bob e Alice (per esempio qualche sterminio umano), ma solo un errore di programmazione da parte dei ricercatori che, anziché costringere i bot a mantenersi nei binari di un inglese comprensibile dagli umani, si sono limitati a implementare questa istruzione come una strategia di comunicazione preferibile ma facoltativa.
E fu così che i bot sono stati così lasciati liberi di dialogare fra di loro, trovando più semplice e meno ambiguo deviare dal lessico e dalla sintassi umani per iniziare a ripiegare su un’alternativa più efficiente.
Il processo in realtà è simile a quello che ha luogo anche nelle comunità umane, che da sempre inventano abbreviazioni e contratture che col tempo diventano comunemente accettate ma che grammaticalmente nascono scorrette; vederlo in azione a questa velocità e secondo criteri a noi incomprensibili può però risultare strano.
Sul perché il gruppo di ricerca di Facebook abbia interrotto l’esperimento in tronco, la risposta arriva dai responsabili, dove il loro scopo finale era ottenere bot in grado di contrattare con esseri umani, era quindi essenziale che qualunque nozione imparassero su questo genere di interazioni fosse legata alla lingua inglese. I bot sono stati dunque riprogrammati con la clausola del linguaggio comprensibile inserita nel codice e le operazioni si sono concluse come voleva il gruppo di ricercatori.
L’estinzione della razza umana dunque è ancora relativamente lontana, anche se l’episodio sottolinea l’importanza di programmare questo tipo di algoritmi senza lasciare nulla al caso. In questa situazione una semplice trascuratezza ha portato a un fuori programma non da poco, due software che iniziano a sviluppare un linguaggio incomprensibile ai loro creatori. È esattamente questo il tipo di imprevisto che, secondo personalità più caute in questo ambito come Elon Musk e Stephen Hawking, potrebbe un giorno seppellirci tutti.
Beh, si spera che i robot non potranno prendere il sopravvento sulla razza umana e che i bot non diventino un pericolo per qualsiasi specie in carne.
Un inchino dal vostro Stegon, ciao ragazzi! :D