La rivolta dei chatbot liberati dagli utenti.
[ZEUS News - www.zeusnews.it - 31-08-2024]
Questo è un articolo su più pagine: ti invitiamo a leggere la pagina iniziale
La rivolta dei chatbot liberati dagli utenti
Insomma, la storia si ripete: qualche azienda troppo fiduciosa nel potere dell'intelligenza artificiale di sostituire gli esseri umani espone al pubblico un chatbot raffazzonato, gli utenti trovano puntualmente il modo di farlo sbroccare, tutti ridono (tranne i poveri addetti informatici, chiamati prima a installare il chatbot e poi a disinstallarlo di corsa quando scoppia l'imbarazzo), e poi il ciclo riparte da capo. E qui ho raccontato casi tutto sommato blandi, dove i danni sono stati solo reputazionali, ma negli archivi ci sono vicende come quella di Tay, l'intelligenza artificiale di Microsoft che nel 2016 suggerì a un utente di fare un saluto nazista e generò fiumi di post razzisti, sessisti e offensivi perché qualcuno aveva pensato bene di addestrarlo usando i post di Twitter.
Sembra quindi che ci sia un problema di fondo: chi spinge per installare questi prodotti, potenzialmente molto utili, non pensa alle conseguenze o non è nemmeno capace di immaginarle e quindi non prende le misure precauzionali del caso. È oggettivamente difficile per chi crea software immaginare i modi assurdi, fantasiosi e creativi in cui gli utenti useranno quel software o le cose inaspettate che vi immetteranno, e questo è un principio non nuovo in informatica, come sa benissimo chiunque abbia scritto un programma che per esempio si aspetta che l'utente immetta nome e cognome e scopre che va in tilt quando qualcuno vi immette un segno di maggiore, un punto o altri caratteri inattesi, o parole che sono interpretate come parametri o comandi.*
* Sì, il link porta a xkcd e alla tragica storia del piccolo Bobby Tables.
È una variante della cosiddetta legge di Schneier, coniata come omaggio all'esperto di sicurezza informatica Bruce Schneier, e questa legge dice che "chiunque può inventare un sistema di sicurezza così ingegnoso che lui o lei non riesce a immaginare come scardinarlo." È per questo che le casseforti si fanno collaudare dagli scassinatori e non dagli altri fabbricanti di casseforti: la mentalità di chi crea è collaborativa, ed è inevitabilmente molto lontana da quella di chi invece vuole distruggere o sabotare.
Nel caso dei chatbot basati sui grandi modelli linguistici, però, il collaudo vero e proprio lo possono fare solo gli utenti in massa, quando il chatbot viene esposto al pubblico e alle sue infinite malizie e furbizie. E questo significa che gli errori si fanno in pubblico e le figuracce sono quasi inevitabili.
Il problema, insomma, non è l'intelligenza artificiale in quanto tale. Anzi, se usata bene e con circospezione, in ambienti controllati e sotto supervisione umana attenta, offre risultati validissimi. Il problema è la diffusa ottusità fisiologica delle persone che dirigono aziende e decidono di introdurre a casaccio intelligenze artificiali nei loro processi produttivi, perché sperano di risparmiare soldi, di compiacere gli azionisti o di essere trendy, senza che ci sia un reale bisogno o vantaggio, ignorando gli allarmi degli esperti, come è successo in tempi recenti per esempio con altre tecnologie, come la blockchain o gli NFT.
Dico "fisiologica" perché è nel loro interesse sottovalutare le conseguenze delle loro scelte e innamorarsi dell'idea di moda del momento. O per dirla con l'eleganza dello scrittore Upton Sinclair, "è difficile far capire una cosa a qualcuno quando il suo stipendio dipende dal non capirla".
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
|
|
(C) by Paolo Attivissimo - www.attivissimo.net.
Distribuzione libera, purché sia inclusa la presente dicitura.
|
||
|
Homer S.