L’IA de lecture cérébrale rend de faux visages que vous trouverez attrayants

Imaginez si une future version pas trop lointaine de Tinder était capable de ramper dans votre cerveau et d’extraire les fonctionnalités que vous trouvez les plus attrayantes chez un partenaire potentiel, puis scannez l’espace de recherche à la recherche de romance pour rechercher le partenaire qui possédait le plus grand nombre de ces attributs physiques.

Nous ne parlons pas seulement de qualités telles que la taille et la couleur des cheveux, mais une équation beaucoup plus complexe basée sur un ensemble de données de tout le monde que vous avez déjà trouvé attrayant. De la même manière que le système de recommandation Spotify apprend les chansons que vous aimez, puis en suggère d’autres qui se conforment à un profil similaire – en fonction de fonctionnalités telles que la dansabilité, l’énergie, le tempo, le volume et la parole – cet algorithme hypothétique ferait la même chose pour les questions de le cœur. Ou, du moins, les reins. Appelez cela le jumelage d’attractivité physique au moyen de l’IA

Pour être clair, Tinder ne travaille pas – pour autant que je sache – sur quelque chose de ce genre à distance. Mais les chercheurs de l’Université d’Helsinki et de l’Université de Copenhague le sont. Et bien que cette description puisse ressembler à une superficialité dystopique à mi-chemin entre Black Mirror et Love Island, en réalité, leurs recherches sur la lecture cérébrale sont vraiment fascinantes.

Recherche dans l’espace du visage

Dans leur expérience récente, les chercheurs ont utilisé un réseau neuronal antagoniste génératif, formé sur une grande base de données de 200 000 images de célébrités, pour imaginer une série de centaines de faux visages. C’étaient des visages avec certaines des caractéristiques de certaines célébrités – une forte mâchoire ici, un ensemble perçant d’yeux azur – mais qui n’étaient pas immédiatement reconnaissables comme les célébrités en question.

Les images ont ensuite été rassemblées dans un diaporama à montrer à 30 participants, équipés de bonnets d’électroencéphalographie (EEG) capables de lire leur activité cérébrale, via l’activité électrique de leur cuir chevelu. On a demandé à chaque participant de se concentrer sur le fait de savoir s’il pensait que le visage qu’il regardait à l’écran était beau ou non. Chaque visage a été montré pendant une courte période, avant que l’image suivante n’apparaisse. Les participants n’avaient pas besoin de marquer quoi que ce soit sur papier, d’appuyer sur un bouton ou de balayer vers la droite pour indiquer leur approbation. Se concentrer uniquement sur ce qu’ils trouvaient attrayant était suffisant.

Le groupe de calcul cognitif

«Nous avons montré une grande sélection de ces visages aux participants et leur avons demandé de se concentrer de manière sélective sur les visages qu’ils trouvaient attrayants», a déclaré Michiel Spapé, chercheur postdoctoral à l’Université d’Helsinki, à Digital Trends. «En capturant les ondes cérébrales par EEG qui se sont produites juste après avoir vu un visage, nous avons estimé si un visage était considéré comme attrayant ou non. Ces informations ont ensuite été utilisées pour conduire une recherche dans le modèle de réseau neuronal – un «espace facial» de 512 dimensions – et trianguler un point qui correspondrait au point d’attractivité d’un participant individuel.

La recherche des modèles de données cachés qui révélaient des préférences pour certaines fonctionnalités a été obtenue en utilisant l’apprentissage automatique pour sonder l’activité électrique cérébrale provoquée par chaque visage. D’une manière générale, plus un certain type d’activité cérébrale est repéré (nous en parlerons dans une seconde), plus les niveaux d’attraction sont élevés. Les participants n’ont pas eu à distinguer certaines fonctionnalités comme étant particulièrement attrayantes. Pour revenir à l’analogie de Spotify, de la même manière que nous pourrions inconsciemment graviter vers des chansons avec une signature rythmique particulière, en mesurant l’activité cérébrale lors de la visualisation d’un grand nombre d’images, puis en laissant un algorithme déterminer ce qu’elles ont toutes en commun, le L’IA peut distinguer des parties du visage sur lesquelles nous ne réalisons peut-être même pas que nous sommes attirés. L’apprentissage automatique est, dans ce contexte, comme un détective dont le travail est de relier les points.

Glisser le cerveau droit

«Ce n’est pas nécessairement une« activité cérébrale accrue », mais plutôt que certaines images resynchronisent l’activité neuronale», a précisé Spapé. «Autrement dit, le cerveau vivant est toujours actif. EEG est assez différent [functional magnetic resonance imaging] en ce que nous ne savons pas très bien d’où vient l’activité, mais seulement lorsqu’elle vient de quelque chose. Ce n’est que parce que de nombreux neurones se déclenchent en même temps, dans la même direction, [we] capable de récupérer leur [electrical] Signature. Donc, la synchronisation et la désynchronisation sont ce que nous captons plutôt que «l’activité» en tant que telle. »

Il a souligné que ce que l’équipe n’a pas fait, c’est de trouver un moyen d’examiner des données cérébrales EEG aléatoires et de dire, immédiatement, si une personne regarde quelqu’un qu’elle trouve attrayant. «L’attraction est un sujet très complexe», a-t-il déclaré. Ailleurs, il a noté que «nous ne pouvons pas contrôler la pensée».

Le groupe de calcul cognitif

Alors, comment exactement les chercheurs ont-ils réussi à mener cette expérience s’ils ne peuvent pas garantir que ce qu’ils mesurent est l’attraction? La réponse est, en fait, qu’ils mesurent l’attraction. Dans ce scénario, au moins. Ce que les chercheurs voient dans cette configuration expérimentale, c’est que, environ 300 millisecondes après qu’un participant voit une image attrayante, son cerveau s’allume avec un signal électrique particulier appelé onde P300. Une onde P300 ne signifie pas toujours une attraction, mais plutôt une reconnaissance d’un certain stimuli pertinent. Mais ce que sont ces stimuli dépend de ce que la personne a été invitée à rechercher. Dans d’autres scénarios, où une personne est invitée à se concentrer sur différentes caractéristiques, cela peut indiquer quelque chose de complètement différent. (Exemple concret: la réponse P300 est utilisée comme mesure dans les détecteurs de mensonges – et pas nécessairement pour dire si une personne dit la vérité sur son attirance pour une personne en particulier.)

NeuroTinder et au-delà

Dans cette étude, les chercheurs ont ensuite utilisé ces données d’attraction pour que le réseau antagoniste génératif génère de nouveaux visages personnalisés combinant les traits les plus stimulants pour le cerveau – un assemblage de Frankenstein de traits du visage que les données sur le cerveau des participants avaient indiqué qu’ils trouvaient personnellement attrayants.

«Bien que certains traits du visage semblent généralement préférés parmi les participants, comme certains visages générés dans nos expériences se ressemblent, le modèle capture vraiment des traits personnels», Tuukka Ruotsalo, professeur agrégé à l’Université d’Helsinki, a déclaré à Tendances numériques. «Il existe des différences dans toutes les images générées. Dans l’aspect le plus trivial, les participants ayant des préférences de genre différentes obtiennent des visages correspondant à cette préférence. »

Générer des personnes attrayantes qui n’ont jamais existé est certainement une utilisation qui fait la une des journaux. Cependant, il pourrait également avoir d’autres applications plus significatives. L’interaction entre un réseau neuronal artificiel génératif et les réponses du cerveau humain pourrait également être utilisée pour tester les réponses humaines à différents phénomènes présents dans les données.

«Cela pourrait nous aider à comprendre le type de caractéristiques et leurs combinaisons qui répondent aux fonctions cognitives, telles que les préjugés, les stéréotypes, mais aussi les préférences et les différences individuelles», a déclaré Ruotsalo.

Un article décrivant le travail a été récemment publié dans la revue IEEE Transactions in Affective Computing.

Recommandations des rédacteurs



Leave a Reply

Your email address will not be published. Required fields are marked *

Main Menu