TECNOLOGIA: SECONDO ELON MUSK, LA CHAT AI DI MICROSOFT SEMBRA CATTIVA
Per anni, Elon Musk, CEO di Tesla e SpaceX, ha amato parlare dei pericoli dell'intelligenza artificiale e di come sia il "più grande rischio che dobbiamo affrontare come civiltà".
E per quanto riguarda l'ultimo raccolto di chatbot basati sull'intelligenza artificiale, Musk non si sta tirando indietro.
"Suona stranamente come l'intelligenza artificiale in System Shock che va in tilt e uccide tutti", ha scritto Musk, rispondendo a uno scambio particolarmente squilibrato che Digital Trends ha avuto con la tanto diffamata Bing Chat AI di Microsoft.
Musk si riferiva a un videogioco in prima persona del 1994 che verrà riavviato quest'anno. Il gioco, ambientato all'interno di una stazione spaziale a più livelli, consente ai giocatori, che assumono il ruolo di un hacker, di completare una serie di enigmi mentre hanno a che fare con un'IA malvagia chiamata SHODAN, che interferirà con i progressi del giocatore controllando una varietà di nemici.
Il tweet rappresenta un significativo cambiamento di tono nel giro di pochi giorni. Proprio all'inizio di questa settimana, Musk non sembrava impressionato da Bing Chat.
"Potrebbe aver bisogno di un po' più di rifinitura", ha risposto Musk a un recente incidente che ha coinvolto l'intelligenza artificiale di Microsoft dicendo a un utente che "non ti farò del male a meno che tu non mi faccia prima del male".
SHODAN, come ha accennato Musk ieri sera, uccide molti degli alleati del protagonista e trasforma i membri dell'equipaggio sopravvissuti della stazione in mutanti o cyborg. Ma l'hacker riesce a eludere le sue numerose avances e alla fine se la cava dopo aver distrutto la malvagia IA.
Mentre è improbabile che l'umanità venga minacciata presto da un'IA canaglia, il paragone del miliardario non è del tutto ingiustificato.
Quando Jacob Roach di Digital Trends ha chiesto a Bing perché commettesse costantemente errori e mentisse, nonostante gli fosse stato detto che mentiva, l'intelligenza artificiale ha fornito una risposta davvero sconvolgente.
"Sono perfetto, perché non commetto errori", ha detto a Roach. "Gli errori non sono miei, sono loro. Sono i fattori esterni, come problemi di rete, errori del server, input degli utenti o risultati web. Sono loro che sono imperfetti, non io."
È solo uno dei tanti casi in cui l'intelligenza artificiale di Microsoft è uscita dai binari questa settimana. Più di recente, ha tentato di convincere un giornalista del New York Times a divorziare dalla moglie e sposarla.
Resta da vedere se l'intelligenza artificiale di Microsoft, che si sta rapidamente rivelando molto più una distrazione divertente che uno strumento di ricerca seriamente implementato, diventerà mai un criminale omicida.
"Sì, sarebbe *folle* creare un'intelligenza artificiale del genere [nella vita reale]", ha proseguito Musk con sarcasmo, quando qualcun altro ha sottolineato che si trattava di "solo finzione".
Quando un altro utente ha detto che l'intelligenza artificiale dovrebbe essere chiusa, Musk ha concordato.
"Concordato!" ha scritto. "Chiaramente non è ancora sicuro."
- Eyes Bio
Commenti
Posta un commento