IA

Même avec une tonne de données, l'IA ne peut pas prédire l'avenir d'un enfant

Même avec une tonne de données, l'IA ne peut pas prédire l'avenir d'un enfant

Prédire certains résultats futurs peut être très bénéfique dans la vie, en particulier dans le monde de l'élaboration des politiques, en mathématiques, dans les affaires, entre autres scénarios.

Ainsi, lorsqu'un trio de chercheurs en sciences sociales de l'Université de Princeton aux États-Unis a décidé de déterminer si l'IA pouvait également être utilisée pour prédire le résultat de l'avenir d'un enfant, ils ont découvert qu'ils ne pouvaient même pas s'en approcher.

En utilisant 15 ans' valeur de données, collaboration avec 160 équipes de recherche, et utiliser la dernière technologie d'IA n'était toujours pas suffisant pour voir le succès futur de la vie d'un enfant.

L'étude a été publiée dans le Actes de l'Académie nationale des sciences.

L'IA ne peut tout simplement pas prédire l'avenir

L'IA peut certainement prédire les tendances et même offrir des informations utiles pour aider les industries dans leur processus de prise de décision. Cependant, déterminer si la vie d'un enfant sera en fin de compte réussie est une marmite de poisson entièrement différente que les mathématiques ne peuvent tout simplement pas prévoir.

«Nous avons étudié cette question avec une collaboration scientifique de masse en utilisant la méthode des tâches communes; 160 équipes ont construit des modèles prédictifs pour six résultats de vie en utilisant les données de la Fragile Families and Child Wellbeing Study, une étude de cohorte de naissance de haute qualité», explique l'étude.

"Malgré l'utilisation d'un ensemble de données riche et l'application de méthodes d'apprentissage automatique optimisées pour la prédiction, les meilleures prédictions n'étaient pas très précises et n'étaient que légèrement meilleures que celles d'un simple modèle de référence."

L’IA ne peut pas prédire le succès futur d’un enfant, quelle que soit la quantité de données que nous lui fournissons (article de @ mrgreene1977) https://t.co/sVkms6nr4H

- TNW (@thenextweb) 7 avril 2020

La raison pour laquelle l'IA ne peut pas prédire ces informations est en grande partie due au fait que l'apprentissage automatique peut tirer des conclusions mais ne peut pas expliquer comment il y est arrivé. Dans les chiffres de vente, cela n'a pas d'importance et fonctionne généralement assez bien avec les données fournies, mais en ce qui concerne les questions sociales, c'est une autre histoire.

Lorsqu'il s'agit de la vie et des libertés futures d'une personne, cela devient des suppositions aléatoires, et pas très bonnes, selon l'étude de Princeton. Malgré un trésor de données avec lesquelles travailler de l'étude «Fragile Families», le système de l'équipe de recherche ne pouvait toujours pas prédire correctement l'issue de la vie de chaque enfant.

VOIR AUSSI: ELON MUSK PARTAGE SES VUES SUR L'IA, NEURALINK, LE PILOTE AUTOMATIQUE ET LE POINT BLEU DANS UN PODCAST

Comme le souligne le document de recherche: «En d'autres termes, même si les données sur les familles fragiles comprenaient des milliers de variables collectées pour aider les scientifiques à comprendre la vie de ces familles, les participants n'étaient pas en mesure de faire des prédictions précises pour les cas récalcitrants.

"De plus, les meilleures soumissions, qui utilisaient souvent des méthodes d'apprentissage automatique complexes et avaient accès à des milliers de variables prédictives, n'étaient que légèrement meilleures que les résultats d'un simple modèle de référence utilisant la régression linéaire."


Voir la vidéo: LINTELLIGENCE ARTIFICIELLE VA-T-ELLE TUER LE MÉTIER DE CODEUR? (Septembre 2021).