Come gli animali, l’intelligenza artificiale sta imparando dall’esperienza.

By Marzo 20, 2019Attualità, Notizie

La prova e l’errore sono una delle strategie di apprendimento più fondamentali utilizzate dagli animali e la stiamo utilizzando sempre di più per insegnare macchine intelligenti. I ricercatori affermano che l’aumento del flusso di idee tra biologi e scienziati informatici che studiano l’approccio potrebbe risolvere misteri nella cognizione animale e aiutare a sviluppare nuovi potenti algoritmi.

Alcuni dei recenti sviluppi più interessanti nell’IA, in particolare quelli che provengono da Google DeepMind, si basano in gran parte sull’apprendimento di rinforzo. Questo si riferisce a un approccio di apprendimento automatico in cui gli agenti imparano a utilizzare il feedback dal proprio ambiente per scegliere azioni che massimizzino i premi.>/span>

Gran parte dell’ispirazione per i primi algoritmi di apprendimento di rinforzo derivava da regole sviluppate per descrivere il comportamento di apprendimento degli animali e dalle reti neurali profonde su cui si basano, gli approcci più recenti hanno anche le loro radici in biologia . Ma nonostante il patrimonio comune, la ricerca nei due campi è stata diversa.

Mentre i biologi spesso studiano problemi di apprendimento semplici con connessioni abbastanza immediate tra opzioni e ricompense, i loro soggetti spesso operano in ambienti altamente dinamici dove l’adattabilità e l’apprendimento continuo sono importanti.

Al contrario, l’apprendimento per rinforzo macchina è stato utilizzato per eseguire compiti più complessi, ma gli algoritmi sono generalmente progettati per risolvere un singolo problema in un ambiente altamente controllato. Ciò li rende relativamente rigidi e il loro approccio statistico all’apprendimento richiede molto tempo. Richiede che le fasi della formazione e dell’operazione siano separate, in modo che non possano apprendere sul lavoro.

Ma in molti modi, questa divergenza significa che è ancora più importante che i due campi condividano le note. “Nonostante le differenze tra il lavoro sull’apprendimento in agenti biologici e artificiali, o forse a causa di queste differenze, c’è molto spazio per il flusso di idee tra questi campi”, affermano gli autori di un recente articolo su Nature.

Questo tipo di scambio è già stato produttivo, affermano i ricercatori. Il concetto di apprendimento di rinforzo basato sul modello e basato su modelli sviluppato in machine learning ha già aiutato i neuroscienziati del sistema a sviluppare una comprensione molto più ricca dei processi di apprendimento basati sui premi negli animali (il primo si riferisce all’apprendimento di pura prova ed errore, mentre il secondo si riferisce alla costruzione di un modello statistico di un problema o di un ambiente che può accelerare l’apprendimento).

Le teorie di Modelless sono state particolarmente efficaci nello spiegare le basi neurali dell’apprendimento di rinforzo nel cervello dei mammiferi, in particolare l’attività dei neuroni che rilasciano la sostanza chimica della ricompensa cerebrale, la dopamina e il modo in cui questo influenza il comportamento. I ricercatori hanno scoperto che esistono sistemi neurali paralleli che imparano a velocità diverse e consentono al cervello di risolvere problemi di apprendimento a più scale temporali.

Ci sono anche prove del comportamento che il cervello degli animali usa l’apprendimento basato sul modello, anche se i fondamenti neurali non sono chiari fino ad ora. Gli esempi includono imparare a imparare, che si riferisce alla capacità di sfruttare l’esperienza di problemi simili per risolvere i problemi correlati più rapidamente. Gli animali possono anche usare quelle esperienze per costruire quelli che sono essenzialmente modelli statistici che li aiutano a fare previsioni sul problema.

La scoperta che gli animali usano più sistemi di apprendimento, ciascuno ottimizzato per diversi ambienti, è una preziosa informazione per coloro che cercano di sviluppare l’apprendimento rinforzante della macchina, affermano gli autori. Egli suggerisce che gli agenti di apprendimento di rinforzo artificiale dovrebbero anche combinare componenti basati su modelli e modelli se desiderano affrontare le capacità e le efficienze del cervello umano.

Quello che rimane un mistero è come gli animali, e in particolare gli umani, imparano a coordinare comportamenti complessi che possono includere azioni di varia difficoltà come l’attivazione di un muscolo specifico per prendere decisioni strategiche a lungo termine. Anche in questo caso, i progressi nell’apprendimento rinforzato con le macchine potrebbero aiutare a fornire intuizioni, affermano gli autori.

Un approccio emergente noto come apprendimento di rinforzo gerarchico raggruppa le azioni di basso livello in sotto-obiettivi organizzati gerarchicamente, che possono essere appresi in modo più efficiente. Finora, poco è stato fatto su come gli animali risolvono questi tipi di problemi, quindi questi modelli potrebbero essere utili punti di partenza per i biologi.

Secondo lo studio, un’area che potrebbe accelerare l’impollinazione incrociata tra i due campi è il calcolo neuromorfico, che mira a creare processori che imitano più da vicino la struttura fisica del cervello. Questo potrebbe fornire un nuovo e potente strumento per progettare e testare algoritmi ispirati al cervello, sia per testare le teorie sulla cognizione animale sia per trovare potenti soluzioni ai problemi del mondo reale.

 

Fonte: https://singularityhub.com/2019/03/18/like-animals-ai-is-learning-from-experience/