Video

La verità su Intelligenza Artificiale e ChatGPT

Intelligenze Artificiali, che cosa sono, come funzionano e soprattutto quali sono i loro limiti?

Altri Video

Intelligenze Artificiali, che cosa sono, come funzionano e soprattutto quali sono i loro limiti?

Partiamo da Stable Diffusion un modello basato sul deep learning addestrato utilizzando un database di 2.3 miliardi di immagini che può essere utilizzato per generare immagini dettagliate a partire da descrizioni di testo. Le possibilità sono enormi ma essendo che questi modelli generativi sono addestrati su opere spesso coperte da copyright, e senza di esse l’intelligenza artificiale sarebbe meno performante o non potrebbe proprio generare alcunché: l’algoritmo copia o trae ispirazione? Si stanno creando dei nuovi dilemmi etici e anche giuridici, infatti alcuni artisti stanno denunciando i creatori di queste intelligenze artificiali per aver addestrato i loro algoritmi sulle loro opere.

C’è poi ChatGPT, un chatbot lanciato da OpenAI e in questo caso il modello è stato addestrato utilizzando come dataset Libri, articoli di giornali, Wikipedia, discussioni su Reddit.

Non è esattamente qualcosa di nuovo: nel 2016 Microsoft lanciò un chatbot chiamato Tay che interagiva con gli utenti su Twitter e altri social media. Fu presentata come “Tay è un chatbot [..] per sperimentare e fare ricerca sulle conversazioni. Tay è pensata per fare conversazioni informali e giocose. Più chatti con Tay più diventa intelligente.”

Questo attirò l’attenzione di 4chan e molti di utenti si mobilitarono per “educare” questa intelligenza artificiale. Nel giro di 24 ore il risultato fu questo: “Microsoft, il chat-bot Tay scrive frasi razziste: cancellati i suoi tweet L’algoritmo apprende e gli utenti gli hanno insegnato messaggi offensivi. Ora è offline”.

OpenAI ha imparato la lezione e infatti parlare con ChatGPT di certi temi è come avere una conversazione con un fact-checker indipendente: vi darà sempre risposte banali pro-sistema e politicamente corrette semplicemente perché è stato impostato così da OpenAI per evitare bufere mediatiche come successe con Microsoft Tay.

Questo dovrebbe far riflettere sul fatto che nel bene e nel male le “intelligenze artificiali” semplicemente dipendono dai modelli su cui sono state addestrate e inoltre chi le controlla può ovviamente influenzare le loro risposte. Nel caso di GPT-3 a detenere il controllo esclusivo del modello è Microsoft, che è l’unica che può modificarlo a piacimento.

E prima di puntare il dito contro le intelligenze artificiali dovremmo preoccuparci dell’uso che ne verrà fatto… dagli esseri umani. Già adesso molti ragazzi usano ChatGPT per farsi fare i compiti scolastici. Puoi chiedere facilmente a ChatGPT di scriverti un tema, il problema è che così i ragazzi non sviluppano mai la propria creatività per scrivere da soli.

Cosa accadrà se in futuro gli esseri umani si impigriranno a tal punto da delegare anche “il pensiero” alle intelligenze artificiali? È importante ricordarsi che ChatGPT, Stable Diffusion, ma anche gli smartphone che usiamo tutti i giorni sono strumenti, e c’è una differenza enorme tra usare la tecnologia, ed essere usati dalla tecnologia.

0 Commenti 0 Commenti
0 Commenti 0 Commenti