I ricercatori hanno registrato i dati neurali fMRI per due cani svegli mentre guardavano video per 90 minuti
Hanno usato l’apprendimento automatico per analizzare i dati neurali.Il documento mostra che possiamo monitorare l’attività nel cervello di un cane mentre sta guardando un video e ricostruire ciò che sta guardando.

Il progetto è stato ispirato dai recenti progressi nell’apprendimento automatico e nella fMRI per decodificare gli stimoli visivi dal cervello umano, fornendo nuove informazioni sulla natura della percezione.

Sebbene il nostro lavoro si basi su due soli cani, offre la prova del concetto che questi metodi funzionano sui cani, secondo il primo autore dell’articolo.Il documento aiuta ad aprire la strada ad altri ricercatori per applicare questi metodi sui cani, così come su altre specie, in modo da poter ottenere più dati e approfondimenti su come funzionano le menti di diversi animali.

Gli scienziati sono stati in grado di decodificare i modelli di attività del cervello umano.La tecnologia utilizza modelli di dati cerebrali per rilevare diversi oggetti o azioni che un individuo sta guardando.I dati video sono stati classificati in base a timestamp in varie classi, incluse quelle basate su oggetti e basate su azioni.Solo due dei cani che erano stati addestrati per esperimenti in una risonanza magnetica avevano la concentrazione e il temperamento per restare fermi e guardare un video di 30 minuti senza interruzioni.

Durante le sessioni fMRI, Philips ha monitorato gli animali e ha guardato i loro occhi mentre guardavano il video.Due esseri umani sono stati sottoposti allo stesso esperimento, sdraiati in una risonanza magnetica, guardando lo stesso video di 30 minuti tre volte diverse
I timestamp possono essere utilizzati per mappare i dati del cervello sul video.Ai dati è stata applicata la rete neurale Ivis.

La rete neurale è stata addestrata per classificare i dati cerebrali.Il modello sviluppato utilizzando la rete neurale ha mostrato un’accuratezza del 99% nella mappatura dei dati del cervello sia sull’oggetto che sui classificatori basati sull’azione, secondo i risultati dei due soggetti umani
Il modello utilizzato per decodificare il video dai cani non funzionava per la classificazione degli oggetti
I risultati mostrano che i cervelli di umani e cani sono diversi.

Berns dice che gli esseri umani sono molto orientati agli oggetti.Berns sottolinea che i cani e gli esseri umani hanno sistemi visivi diversi..

You may also like

Leave a reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *