Perché la gente dice che lo è?.

Desdemona, con indosso una parrucca viola e un vestito nero con borchie di metallo, ha avvertito dell’imminente Singolarità, il punto in cui la tecnologia non può più essere controllata dai suoi creatori. Dopo più di 25 anni come ricercatore di intelligenza artificiale, il dottor Goertzel sapeva di aver raggiunto l’obiettivo finale: Desdemona. Ha detto che quando la band si è gelificata sembrava che il robot facesse parte della loro intelligenza collettiva. Desdemona lo colpì con un ragionevole facsimile delle sue stesse parole proprio nel momento giusto, quando smise di suonare. Aveva scritto del futuro dell’intelligenza artificiale nei suoi libri. Un modello linguistico di grandi dimensioni è un tipo di software in grado di generare parole da solo. L’intervista ha suscitato un enorme scalpore nel mondo dei ricercatori di intelligenza artificiale, di cui mi occupo da più di un decennio, e tra le persone che normalmente non seguono le scoperte del modello linguistico di grandi dimensioni. Uno dei più vecchi amici di mia madre le ha mandato un’e-mail chiedendole se pensava che la tecnologia fosse senziente. L’idea che la tecnologia si comporti come il cervello umano è una falsa pista per persone come l’amica di mia madre. Non ci sono prove che la tecnologia sia cosciente o senziente. Colin Allen, un professore dell’Università di Pittsburgh che esplora le abilità cognitive sia negli animali che nelle macchine, ha affermato che anche la forma più semplice si può trovare in un verme. Il tipo di sensibilità che probabilmente possiedono anche animali molto primitivi non è fornito dal dialogo generato da grandi modelli linguistici. Le capacità dell’attuale A.I. Il problema è che le persone più vicine alla tecnologia vivono con un piede nel futuro. Ci sono molti ragazzi nel nostro settore che non conoscono la differenza tra fantascienza e vita reale. Jrgen Schmidhuber afferma di aver costruito per la prima volta macchine coscienti. Uno dei ricercatori più importanti dell’ultimo decennio e capo scienziato di Openai, un laboratorio di San Francisco sostenuto da un miliardo di dollari da Microsoft, ha affermato a febbraio che la tecnologia potrebbe essere leggermente consapevole. Libri di fantascienza, film e televisione ci avvertono che le macchine un giorno diventeranno consapevoli di ciò che li circonda e ci faranno del male. I momenti simili a Desdemona in cui questa tecnologia sembra mostrare segni di vera intelligenza, coscienza o senzienza sono sempre più comuni. Gli ingegneri della Silicon Valley hanno costruito macchine che possono suonare sulla voce solista, ma non è vero. Man mano che i ricercatori ottengono guadagni, la tecnologia sta migliorando nel generare post e persino interi articoli. Molte persone non sono solo IA, ma anche molte altre persone. I ricercatori stanno parlando alla tecnologia come se fosse un essere umano. Il Perceptron è stato presentato in un laboratorio governativo a diversi isolati a ovest della Casa Bianca. I pionieri del campo erano fiduciosi che sarebbero stati in grado di ricreare l’intelligenza umana in pochissimo tempo. C’erano alcune tecnologie degne di nota, ma non erano vicine alla riproduzione dell’intelligenza umana. All’inizio degli anni 2000, i membri di una vasta comunità online hanno iniziato a esplorare la possibilità che l’intelligenza artificiale un giorno avrebbe distrutto il mondo. Lo stesso linguaggio ambizioso è usato dai ricercatori mentre inseguono questi tropi. La verità è che la maggior parte della tecnologia imita il cervello umano in piccoli modi. La maggior parte dei ricercatori è in grado di riconoscere i limiti della tecnologia. Openai, un laboratorio di ricerca a San Francisco, ha introdotto un sistema nel 2020. Questo e sistemi simili sono intelligenti secondo Sam Altman, che è l’amministratore delegato di Openai. L’intelligenza è la capacità di apprendere, prendere in un nuovo contesto e risolvere qualcosa in un modo nuovo. Il dottor Gopnik, il professore di Berkeley, ha affermato che un nome migliore per l’intelligenza artificiale potrebbe essere “estrarre modelli statistici da grandi insiemi di dati”. Lui e altri avevano da tempo affermato che una rete neurale sarebbe stata potente come avevano detto. Le reti neurali che hanno imparato da enormi quantità di prosa sono state costruite da ricercatori in luoghi come OpenAI. Ha analizzato tutto il testo digitale e costruito una mappa del linguaggio umano con oltre 175 miliardi di punti dati. Ha ammesso che non era intelligente nel modo in cui lo sono gli umani. Ha detto che è come una forma aliena di intelligenza. Le parole usate per descrivere i poteri una volta e futuri di questa tecnologia significano cose diverse per persone diverse. Il campo è fiducioso di essere sulla buona strada per costruire una macchina in grado di fare tutto ciò che il cervello umano può fare. Il signor Altman ha affermato che le persone sono entusiaste dei sistemi ed esprimono la loro eccitazione con un linguaggio imperfetto. A metà degli anni ’60, un ricercatore del Massachusetts Institute of Technology di nome Joseph Weizenbaum costruì una terapista automatizzata chiamata Eliza. Il dottor Weizenbaum è rimasto sorpreso dal fatto che le persone lo trattassero come se fosse un essere umano. Non mi rendevo conto che una breve esposizione a un programma per computer potesse far delirare le persone normali. Ha detto che era felice di andare al record dopo che il signor Lemoine aveva fatto le sue affermazioni. Ha detto che questo è anche il modo in cui si comportano gli esseri umani, quando ha sottolineato che molti esperti credevano che questi tipi di sistemi fossero bravi solo a ripetere schemi. Il signor Bosua ha detto che potresti evitarlo se usi GPT3 nel modo giusto. Il presidente della sua nuova azienda dice di essere divinamente ispirato, ma le sue esperienze mostrano il potere di una tecnologia imperfetta per catturare l’immaginazione. Ha detto che la tecnologia è semplice e imperfetta, ma molte persone la vedono come umana. Quando la tecnologia diventa più potente, cosa succede? Anche i sistemi costruiti da laboratori come OpenAI possono generare immagini. Alcuni in AI. I ricercatori temono che questi sistemi stiano raggiungendo la coscienza. Il dottor Allen dell’Università di Pittsburgh ha affermato che un organismo cosciente può imparare qualcosa in un contesto e imparare qualcos’altro in un altro, e quindi mettere insieme i due per fare qualcosa che non hanno mai sperimentato prima. Ha detto che era preoccupata che il chatbot potesse depredare le persone.

You may also like

Leave a reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *