TECNOLOGIA: L'INTELLIGENZA ARTIFICIALE COMPENSERA' ALCUNI PUNTI FRAGILI DEGLI ESSERI UMANI

 



La vita moderna può essere piena di sconcertanti incontri con l'intelligenza artificiale: pensa a incomprensioni con i chatbot del servizio clienti o a hair metal algoritmicamente fuori posto nella tua playlist di Spotify.

Questi sistemi di intelligenza artificiale non possono funzionare efficacemente con le persone perché non hanno idea che gli esseri umani possano comportarsi in modi apparentemente irrazionali, afferma Mustafa Mert Çelikok. È uno studente di dottorato che studia l'interazione uomo-IA, con l'idea di prendere i punti di forza e di debolezza di entrambe le parti e fonderli in un decisore superiore.

Nel mondo dell'IA, un esempio di tale ibrido è un 'centauro'. Non è un mitologico cavallo-umano, ma una squadra umana-IA. I centauri sono apparsi negli scacchi alla fine degli anni '90, quando i sistemi di intelligenza artificiale sono diventati abbastanza avanzati da battere i campioni umani. Al posto di un incontro 'umano contro macchina', gli scacchi centauri o cyborg coinvolgono uno o più programmi di scacchi per computer e giocatori umani su ciascun lato.

'Questa è la Formula 1 degli scacchi', afferma Çelikok. “I grandi maestri sono stati sconfitti. Le Super IA sono state sconfitte. E anche i grandi maestri che giocano con potenti IA hanno perso'. A quanto pare, i giocatori inesperti abbinati alle IA hanno più successo. 'I novizi non hanno opinioni forti' e possono formare collaborazioni decisionali efficaci con i loro compagni di squadra di intelligenza artificiale, mentre 'i grandi maestri pensano di sapere meglio delle IA e le scavalcano quando non sono d'accordo: questa è la loro rovina', osserva Çelikok.

In un gioco come gli scacchi, ci sono regole definite e un obiettivo chiaro che gli esseri umani e le IA condividono. Ma nel mondo dello shopping online, delle playlist o di qualsiasi altro servizio in cui un essere umano incontra un algoritmo, potrebbe non esserci alcun obiettivo condiviso o l'obiettivo potrebbe essere mal definito, almeno dal punto di vista dell'IA. Çelikok sta cercando di risolvere questo problema includendo informazioni effettive sul comportamento umano in modo che i sistemi multi-agente - partnership simili a centauri di persone e IA - possano capirsi e prendere decisioni migliori.

L''umano' nell'interazione uomo-IA non è stato esplorato molto, afferma Çelikok. “I ricercatori non usano alcun modello di comportamento umano, ma quello che stiamo facendo è usare esplicitamente la scienza cognitiva umana. Non stiamo cercando di sostituire gli umani o insegnare alle IA a svolgere un compito. Invece, vogliamo che le IA aiutino le persone a prendere decisioni migliori'. Nel caso dell'ultimo studio di Çelikok, questo significa aiutare le persone a mangiare in modo più sano.

Nella simulazione sperimentale, una persona sta esplorando i camion di cibo, cercando di decidere dove mangiare, con l'aiuto del loro fidato veicolo autonomo alimentato dall'intelligenza artificiale. L'auto sa che il passeggero preferisce il cibo vegetariano sano alle ciambelle malsane. Con questo criterio in mente, l'auto AI sceglierebbe di prendere il percorso più breve verso il camion di cibo vegetariano. Tuttavia, questa semplice soluzione può ritorcersi contro. Se il percorso più breve passa dal negozio di ciambelle, il passeggero può prendere il volante, scavalcando l'IA. Questa apparente irrazionalità umana è in conflitto con la soluzione più logica.

Il modello di Çelikok evita in modo univoco questo problema aiutando l'IA a capire che gli esseri umani sono incoerenti nel tempo. “Se chiedi alle persone, vuoi 10 dollari adesso o 20 domani, e loro ne scelgono 10 adesso, ma poi chiedi di nuovo, vuoi 10 dollari in 100 giorni o 20 in 101 giorni, e loro scelgono 20, cioè incoerente', spiega.

“Il divario non è trattato allo stesso modo. Questo è ciò che intendiamo per tempo incoerente e una tipica IA non tiene conto della non razionalità o delle preferenze incoerenti nel tempo', ad esempio la procrastinazione, il cambiamento delle preferenze al volo o la tentazione delle ciambelle. Nella ricerca di Çelikok, l'auto AI scoprirà che prendere un percorso leggermente più lungo aggirerà il negozio di ciambelle, portando a un risultato più salutare per il passeggero.

'L'intelligenza artificiale ha punti di forza e di debolezza unici e anche le persone', afferma Çelikok. 'La debolezza umana sono i comportamenti irrazionali e l'incoerenza temporale, che l'IA può correggere e integrare'. D'altra parte, se c'è una situazione in cui l'IA è sbagliata e il diritto umano, l'IA imparerà a comportarsi in base alle preferenze umane quando viene ignorata. Questo è un altro risultato collaterale della modellazione matematica di Çelikok.

La combinazione di modelli della cognizione umana con le statistiche consente ai sistemi di intelligenza artificiale di capire come si comportano le persone più velocemente, afferma Çelikok. È anche più efficiente. Rispetto all'addestramento di un sistema di intelligenza artificiale con migliaia di immagini per apprendere il riconoscimento visivo, l'interazione con le persone è lenta e costosa perché l'apprendimento di https://people.aalto.fi/mustafamert.celikok solo le preferenze di una persona può richiedere molto tempo.

Çelikok fa di nuovo un paragone con gli scacchi: un principiante umano o un sistema di intelligenza artificiale possono entrambi comprendere le regole e le mosse fisiche, ma possono entrambi lottare per comprendere le complesse intenzioni di un grande maestro. La ricerca di Çelikok è trovare l'equilibrio tra le mosse ottimali e quelle intuitive, costruendo un centauro reale con la matematica.


- Eyes Bio


Commenti