Cassandra Crossing/ Intelligenze Artificiali: fabbriche di informazioni false (2)
[ZEUS News - www.zeusnews.it - 06-05-2023]
Questo è un articolo su più pagine: ti invitiamo a leggere la pagina iniziale
Intelligenze Artificiali, fabbriche di informazioni false
E veniamo finalmente all'attualità. Un software prodotto dall'azienda OpenAI, chiamato GPT-3 (Generative pre-Trained Transformer) — Trasformatore generativo pre-allenato, dopo essere stato nutrito con una quantità enorme di dati si è rivelato particolarmente efficace nel generare risposte credibili, ed è stato messo a disposizione del pubblico tramite un'interfaccia colloquiale chiamata ChatGPT.
ChatGPT ha avuto un'enorme risonanza, e moltissime persone, dopo averla provata, hanno cominciato a scrivere cose indicibili, minchiate galattiche, descrizioni tanto fantasiose quanto errate su questo software, sui suoi successori e sulle tecnologia alla loro base, descrivendola come il futuro paradiso dell'umanità, come la soluzione a tutti i problemi. Come oracoli di verità.
Se questo articolo di Cassandra fosse un romanzo giallo, a questo punto il lettore attento potrebbe già individuare l'assassino. Ma continuiamo nella storia, e arriviamo al finale. Cassandra, come profetessa, ha frequentato gli oracoli, e ne ha sperimentato tutti i limiti.
Un famoso responso fornito da un oracolo, la Sibilla romana, a un soldato in procinto di partire per la guerra, che voleva sapere se ne sarebbe tornato, fu "Ibis, redibis non morieris in bello".
Per chi non avesse avuto frequentazioni con la lingua latina, la sequenza di sei parole, mancando di una virgola, poteva significare sia quello che il soldato voleva sentirsi dire "Partirai, tornerai, non morirai in guerra", sia il suo opposto "Partirai, non tornerai, morirai in guerra". Non conteneva nessuna informazione. Era una "non-risposta". Un risposta priva di significato e di informazione, ma a cui il soldato fornì il significato che desiderava, cioè che sarebbe sopravvissuto, e non quello che sarebbe morto in guerra. Ma qualcuno potrebbe pensare che l'oracolo conoscesse davvero il futuro, e si divertisse malignamente a renderlo comunque oscuro ai poveri mortali.
Così certamente non è per ChatGPT, perché questo software non solo non conosce il futuro, ma nemmeno conosce la risposta a nessuna domanda, nemmeno se una foto sia di un gatto oppure no. ChatGPT e tutti i suoi successori dello stesso tipo non conoscono, non conoscono per niente, non conoscono assolutamente, non conoscono neanche lontanamente la risposta a qualsiasi domanda; non conoscono assolutamente nulla.
La conoscenza con cui vengono "nutriti" viene "digerita" e svanisce, lasciando solo un credibile "Mentecatto Artificiale" privo di qualsiasi Intelligenza o Cultura. ChatGPT e tutti i suoi successori sono fatti solo e unicamente per generare risposte "credibili" a domande poste in linguaggio naturale. Risposte credibili, non risposte vere.
Questo concetto deve essere recitato come un mantra, ripetuto fino allo sfinimento, pubblicizzato in ogni occasione: ChatGPT e tutti i suoi successori non hanno nessuna conoscenza sulla verità o falsità di una domanda, non hanno nessuna cultura, pur avendone digerito quantità enormi. Sono un vicolo cieco, utilizzabile solo come arma di propaganda di massa. E lo stanno facendo! Sono solo in grado di darvi risposte credibili, in cui voi individuerete il significato che volete o potete dargli.
E qui sta il pericolo: questi oggetti vengono propagandati come risponditori di domande, non come affabulatori o generatori di prosa fantasiosa. E la loro attuale linea di sviluppo non è quella di renderli capaci di risposte esatte, cosa che non sarà mai possibile, ma solo incapaci di dare risposte così errate da essere evidenti o ridicole, risposte che siano espresse in termini razzisti, sessisti, in violazione di qualsiasi possibile concetto "politically correct".
Non c'è quindi nessuna possibilità, se non per puro caso, di avere risposte informate e corrette da modelli linguistici, cioè da software come GPT-3, ChatGPT, GPT-4 e i loro fratelli e successori. Non sono fatti per questo. Non lo sanno e non lo possono fare per progetto. Non conoscono, e non sanno calcolare, categorie come "verità" o "esattezza". È assolutamente impossibile che forniscano risposte esatte e affidabili, per quanti "miglioramenti" e filtri vi vengano aggiunti.
Nel frattempo la maggioranza del pubblico, indotta in errore da un'attività di propaganda commerciale che non si è mai vista nel mondo delle tecnologie informatiche, è convinta di interagire con un software che può fornire vere risposte, mentre in realtà è in grado di fornire solo sequenze di parole ben formate, ma assolutamente vuote di qualsiasi contenuto affidabile. Parole messe a caso ma con grande proprietà di linguaggio.
Potrei dire che possono produrre solo discorsi da politicanti e venditori di auto usate, ma fate conto che non l'abbia detto. Speriamo che questa ennesima ripetizione, spero ben argomentata ripetizione, serva a qualcosa.
Se vi affidate a ChatGPT, non tornerete mai dalla guerra.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
Scrivere a Cassandra - Twitter - Mastodon
Videorubrica "Quattro chiacchiere con Cassandra"
Lo Slog (Static Blog) di Cassandra
L'archivio di Cassandra: scuola, formazione e pensiero
|
||
|