Noam Chomsky critica i Chatbot. Ha ragione?
2023-10-30 18:08:16
L’8 Marzo 2023, il famoso linguista Noam Chomsky ha scritto un editoriale sul New York Times sulle caratteristiche e prospettive di ChatGPT insieme con il collega Ian Roberts e l’esperto di intelligenza artificiale Jeffrey Watumull. L'articolo di Chomsky arrivava proprio durante il 'boom' avuto da ChatGPT 3.5, durante cioè i primi mesi in cui fu aperto al grande pubblico uscendo dalla ristretta nicchia degli specialisti di Deep Learning e di programmatori; comprensibilmente, Chomsky fu criticato da molti specialisti del settore, forse risentiti del fatto che un personaggio così illustre criticasse qualcosa che prospettava loro grossi guadagni e di cui andavano particolarmente fieri.
Noi stessi di Vivacity Design, dopo mesi di utilizzo (da febbraio a maggio 2023), dicemmo la nostra in diversi articoli e post sui social, e non tutti furono contenti delle nostre conclusioni, provenienti da mesi di test intensivi.
Ma cosa scrissero in sostanza Chomsky e i suoi collaboratori? Per chi volesse leggerlo integralmente in traduzione italiana, lasciamo il link ad un articolo del sito Libertà Eguale mentre noi ne facciamo uno stringatissimo riassunto.
Chomsky esprime preoccupazione e ottimismo riguardo ai progressi nell'intelligenza artificiale, in particolare nel campo del machine learning. Sostiene che mentre programmi come ChatGPT sembrano promettenti, non possono ancora raggiungere l'intelligenza umana a causa delle differenze fondamentali nel modo di ragionare e usare il linguaggio. L'autore sostiene che questi programmi sono limitati nella loro capacità di fornire spiegazioni e di pensare in modo critico e morale. Inoltre, Chomsky osserva che i programmi di apprendimento automatico sono limitati nella loro capacità di imparare e sono privi di un sistema causale di ragionamento.
Ma non solo: il linguista conclude che, nonostante l'entusiasmo attorno all'intelligenza artificiale, questi programmi hanno ancora molte limitazioni e che le previsioni che possono generare sono dubbie e superficiali. Infine, mette in evidenza le sfide etiche associate a questi programmi e critica la loro mancanza di capacità di bilanciare creatività e costrizione.
Fin qui Chomsky. Ma quel che scrisse a marzo, passati tutti questi mesi, ha dunque fondamento o fu invece parto di pregiudizio dovuto ad una conoscenza poco approfondita dell'argomento? La nostra opinione è che Chomsky in realtà aveva ragione da vendere.
Esaminiamo alcuni proclami.
E' senz'altro vero che le (presunte) AI come ChatGPT o Bard non siano realmente intelligenti, ma siano soltanto algoritmi avanzati che simulano dei ragionamenti applicando regole specifiche pre-formulate dai programmatori. Questi strumenti sono in sostanza algoritmi ai quali sono stati fatti divorare terabytes di informazioni, e gli è stato insegnato come estrarle, ri-arrangiarle, simulando un linguaggio che deve sembrare naturale.
E' senz'altro vero, altresì, che le previsioni che possono generare sono dubbie e superficiali, infatti uno dei più grandi problemi di ChatGPT, intorno al quale ci fu molto rumore durante l'estate 2023, fu quello del fenomeno chiamato 'hallucinations'. Se ne parlò perfino nel forum di OpenAI, ed il fenomeno è riportato anche su Wikipedia. E' dunque un problema noto!
E che dire dei problemi etici a cui fa riferimento Chomsky? Questo è un tasto molto dolente di cui noi abbiamo scritto molto, perché questi strumenti, e le loro applicazioni audio / video, permettono la creazione di Deep Fake che sono di fatto illegali. E' senz'altro vero che non si può biasimare una tecnologia per l'uso che un utente può farne, ma in alcuni casi, come appunto gli algoritmi di Deep Learning applicati alla creazione di audio e video immaginari, si stenta davvero a capirne gli utilizzi eticamente accettabili.
Ci schieriamo dunque dalla parte di Chomsky, ritenendo che questi servizi siano una ottima opportunità di sviluppo ed aiuto alle proprie attività, ma mettendo in guardia sul fatto che non bisogna diventarne dipendenti o riconoscere loro troppa 'autorità'.
Noi stessi di Vivacity Design, dopo mesi di utilizzo (da febbraio a maggio 2023), dicemmo la nostra in diversi articoli e post sui social, e non tutti furono contenti delle nostre conclusioni, provenienti da mesi di test intensivi.
Ma cosa scrissero in sostanza Chomsky e i suoi collaboratori? Per chi volesse leggerlo integralmente in traduzione italiana, lasciamo il link ad un articolo del sito Libertà Eguale mentre noi ne facciamo uno stringatissimo riassunto.
Chomsky esprime preoccupazione e ottimismo riguardo ai progressi nell'intelligenza artificiale, in particolare nel campo del machine learning. Sostiene che mentre programmi come ChatGPT sembrano promettenti, non possono ancora raggiungere l'intelligenza umana a causa delle differenze fondamentali nel modo di ragionare e usare il linguaggio. L'autore sostiene che questi programmi sono limitati nella loro capacità di fornire spiegazioni e di pensare in modo critico e morale. Inoltre, Chomsky osserva che i programmi di apprendimento automatico sono limitati nella loro capacità di imparare e sono privi di un sistema causale di ragionamento.
Ma non solo: il linguista conclude che, nonostante l'entusiasmo attorno all'intelligenza artificiale, questi programmi hanno ancora molte limitazioni e che le previsioni che possono generare sono dubbie e superficiali. Infine, mette in evidenza le sfide etiche associate a questi programmi e critica la loro mancanza di capacità di bilanciare creatività e costrizione.
Fin qui Chomsky. Ma quel che scrisse a marzo, passati tutti questi mesi, ha dunque fondamento o fu invece parto di pregiudizio dovuto ad una conoscenza poco approfondita dell'argomento? La nostra opinione è che Chomsky in realtà aveva ragione da vendere.
Esaminiamo alcuni proclami.
E' senz'altro vero che le (presunte) AI come ChatGPT o Bard non siano realmente intelligenti, ma siano soltanto algoritmi avanzati che simulano dei ragionamenti applicando regole specifiche pre-formulate dai programmatori. Questi strumenti sono in sostanza algoritmi ai quali sono stati fatti divorare terabytes di informazioni, e gli è stato insegnato come estrarle, ri-arrangiarle, simulando un linguaggio che deve sembrare naturale.
E' senz'altro vero, altresì, che le previsioni che possono generare sono dubbie e superficiali, infatti uno dei più grandi problemi di ChatGPT, intorno al quale ci fu molto rumore durante l'estate 2023, fu quello del fenomeno chiamato 'hallucinations'. Se ne parlò perfino nel forum di OpenAI, ed il fenomeno è riportato anche su Wikipedia. E' dunque un problema noto!
E che dire dei problemi etici a cui fa riferimento Chomsky? Questo è un tasto molto dolente di cui noi abbiamo scritto molto, perché questi strumenti, e le loro applicazioni audio / video, permettono la creazione di Deep Fake che sono di fatto illegali. E' senz'altro vero che non si può biasimare una tecnologia per l'uso che un utente può farne, ma in alcuni casi, come appunto gli algoritmi di Deep Learning applicati alla creazione di audio e video immaginari, si stenta davvero a capirne gli utilizzi eticamente accettabili.
Ci schieriamo dunque dalla parte di Chomsky, ritenendo che questi servizi siano una ottima opportunità di sviluppo ed aiuto alle proprie attività, ma mettendo in guardia sul fatto che non bisogna diventarne dipendenti o riconoscere loro troppa 'autorità'.
Tags: AI, Chatbot, ChatGPT, Noam Chomsky, Intelligenza Artificiale, articoli
Condividi su Facebook // Dai un like // Assegna una lettura
Like ricevuti: 198 -
Letture riconosciute: 205
Condividi su Facebook // Dai un like // Assegna una lettura
Precedente - Torna alla lista - Successivo