La technologie

Quand l'intelligence artificielle va-t-elle apprendre à raisonner?

Chaque jour les systèmes les plus avancésL'intelligence artificielle devient de plus en plus intelligente, acquérant de nouvelles connaissances et compétences. L'intelligence artificielle est déjà capable d'être meilleure dans de nombreux domaines que l'homme. Mais derrière toute cette «supériorité», il n’ya que des lignes de code et des algorithmes bien définis qui ne permettent pas au programme d’être «libre dans leurs pensées». En d'autres termes, une machine ne peut pas faire des choses qui ne lui sont pas incorporées. L'IA peut tirer des conclusions logiques, mais ne peut pas raisonner sur un sujet donné. Et il semble que cela va bientôt changer.

Comment les gens connaissent le monde

Comme tous les organismes rationnels, nous en apprendrons davantage surdispositif du monde progressivement. Imaginez un bébé d'un an qui voit un camion jouet descendre d'une plate-forme et rester suspendu dans les airs. Pour lui, cela ne sera pas inhabituel. Mais faites la même expérience deux ou trois mois plus tard et le petit homme réalisera immédiatement que quelque chose ne va pas. Après tout, il sait déjà comment fonctionne la gravité.

"Personne ne dit à l'enfant que les objets doiventtomber », déclare Jan Lekun, responsable de Facebook pour le développement de l'intelligence artificielle et professeur à l'Université de New York. - "Une grande partie de ce que les enfants apprennent sur le monde, ils l'apprennent par l'observation."

Et, aussi simple que cela puisse paraître, c'est cette approche qui peut aider les développeurs d'intelligence artificielle à créer des versions plus avancées de l'intelligence artificielle.

Pourquoi est-il si difficile d'apprendre à l'IA à raisonner

Apprentissage profond en machine (c'est-à-direParler, acquérir certaines compétences par essais et erreurs, permet aujourd'hui à AI de réussir énormément. Mais surtout, l'intelligence artificielle n'est toujours pas capable de faire. Il ne peut pas raisonner et tirer des conclusions basées sur une analyse de la réalité objective dans laquelle il existe. En d'autres termes, les machines ne comprennent pas vraiment le monde qui les entoure, ce qui les rend incapables d'interagir avec lui.

C'est intéressant: l'intelligence artificielle peut-elle battre une personne de poker?

L'un des moyens d'améliorer l'IA peut consister en une sorte de «mémoire partagée», qui aidera les machines à obtenir des informations sur le monde qui les entoure et à les étudier progressivement. Mais cela ne résout pas tous les problèmes.

"De toute évidence, il nous manque quelque chose", déclareProfesseur Lekun. «Un enfant peut comprendre le fonctionnement de l'éléphant adulte et de son bébé après avoir vu seulement 2 photos. Bien que les algorithmes d'apprentissage en profondeur doivent examiner des milliers, voire des millions d'images. Un adolescent peut apprendre à conduire en toute sécurité en pratiquant une douzaine d’heures et à comprendre comment éviter les accidents, mais les robots doivent accumuler des dizaines de millions d’heures.

Comment apprendre à raisonner l'IA

La réponse, selon le professeur Lekun, est deune sous-catégorie sous-estimée d'apprentissage en profondeur, appelée apprentissage non supervisé. Lorsque des algorithmes basés sur l'apprentissage supervisé et renforcé enseignent à l'IA à atteindre l'objectif par la saisie de données de l'extérieur, les non-supervisés développent eux-mêmes des comportements. En termes simples, il existe deux façons d'apprendre à un robot à marcher: la première consiste à entrer dans le système tous les paramètres en fonction de la structure du robot. La seconde consiste à «expliquer» les principes de la marche et à permettre au robot d'apprendre de manière autonome. Dans le même temps, la très grande majorité des algorithmes existants fonctionnent selon le premier chemin. Yang Lekun estime que l'accent devrait être mis sur la deuxième méthode.

"Les chercheurs devraient commencer par apprendrealgorithmes de prédiction. Par exemple, apprendre aux réseaux de neurones à prédire la seconde moitié de la vidéo, en ne voyant que la première. Oui, dans ce cas, les erreurs sont inévitables, mais nous enseignons ainsi le raisonnement de l'IA, en élargissant les possibilités de son application. Pour reprendre l'exemple d'un enfant et d'un camion jouet: nous avons deux résultats possibles: le camion tombera ou gèlera. "Jetez" une centaine d'autres exemples de ce type sur des réseaux de neurones et ils apprendront à établir des interconnexions logiques et, en fin de compte, à raisonner. "

Vous pouvez discuter de cela et d'autres nouvelles dans notre chat dans Telegrams.

Avis Facebook pour l'UE ! Vous devez vous connecter pour afficher et publier des commentaires FB !