DÉCRYPTAGE : AutoGPT & le jeu de la vie

Jeremy Lamri
9 min readMay 3, 2023

[Article rédigé le 20 avril 2023 par Jeremy Lamri avec le support de l’algorithme Open AI GPT-4 pour environ 10%].

Créé par Jeremy Lamri avec DALL-E2 Experimental (2023, tous droits réservés).

L’intelligence artificielle peut être utilisée pour accomplir des tâches spécifiques, telles que recommander du contenu, rédiger des textes, répondre aux questions et même générer des photos indiscernables de la réalité. Mais que faire si vous voulez une IA capable de penser par elle-même et agir comme un coéquipier plutôt qu’un simple outil ?

C’est là qu’interviennent les “agents autonomes”, une tendance en pleine croissance parmi les développeurs d’IA, bien que peu connue du grand public. Les agents autonomes permettent à l’IA de créer et accomplir des tâches pour atteindre un objectif, même vague, comme “créer la bibliothèque la plus complète de photos de pandas”. Bienvenue dans l’univers d’AutoGPT !

Entrée dans l’ère d’AutoGPT

AutoGPT est un programme capable de se fixer des tâches, de les accomplir, de créer de nouvelles tâches et de les prioriser jusqu’à atteindre l’objectif fixé, tout ça sans vous. Bien que cela puisse sembler de la science-fiction, les agents autonomes sont bien réels et fonctionnent grâce à des techniques de programmation et à l’IA.

Créé par Jeremy Lamri avec DALL-E2 Experimental (2023, tous droits réservés).

Des projets open source tels que AutoGPT, BabyAGI et Jarvis de Microsoft sont en plein essor. Certains estiment que les agents autonomes sont le début de l’intelligence artificielle générale (AGI), qui se réfère à une IA qui a acquis la conscience et est devenue “vivante”. Même si à ce stade, soyons d’accord, ce n’est pas encore le cas, il ne s’agit que d’un simulacre de conscience.

En plus d’analyser leur objectif et de déterminer des tâches, les agents autonomes peuvent posséder diverses compétences pour accomplir toute tâche numérique qu’un humain pourrait effectuer, telles que :

  • Accès à la navigation sur internet et utilisation d’applications
  • Mémoire à long terme et à court terme
  • Contrôle de l’ordinateur
  • Accès à une carte de crédit ou autre moyen de paiement
  • Accès à de grands modèles linguistiques (LLM) comme GPT pour l’analyse, la synthèse, l’opinion et les réponses.

Ces agents autonomes se présenteront sous différentes formes et tailles. Certains fonctionneront en arrière-plan sans que l’utilisateur s’en rende compte, tandis que d’autres seront visibles, permettant à l’utilisateur de suivre chaque “pensée” de l’IA.

Chez Tomorrow Theory, nous avons fait notre propre prototype d’agent autonome à partir d’Auto GPT, et voici ce que cela donne :

Pour le moment, nous assistons seulement aux prémisses de ce changement de paradigme. Même si ce nouveau concept n’est pas encore abouti, son potentiel est impressionnant, et très supérieur à ce que nous avons pu voir avec GPT-4. Je vous conseille de suivre de près les prochains mois…

L’expérience de jeu autonome de Stanford

Que se passe-t-il lorsque 25 agents IA sont lâchés dans une ville virtuelle ? Une récente étude menée par des chercheurs de l’université de Stanford et de Google a révélé que leurs comportements ne sont pas si différents de ceux des humains. Dans une ville virtuelle appelée “Smallville”, les chercheurs ont utilisé GPT 3.5, le modèle derrière ChatGPT d’OpenAI, pour simuler le comportement humain. Les résultats sont troublants et pourraient s’apparenter à un épisode de Black Mirror.

Une capture d’écran de l’étude “Generative Agents: Interactive Simulacra of Human Behavior” (Agents Génératifs : Simulacres Interactifs du Comportement Humain), qui a observé des avatars d’IA dans une ville virtuelle.

Concrètement, dans le cadre de leur étude intitulée Generative Agents: Interactive Simulacra of Human Behavior, ils ont créé 25 personnages avec une identité basique, et les ont laissé évoluer ensemble, un peu comme dans les Sims. Sauf que le résultat est pour le moins inattendu. En quelques heures à peine, ces personnages basiques ont recréé des comportements sociaux complexes très proches de ce que l’on trouve dans le monde réel.

Les agents IA ont montré des comportements individuels et sociaux crédibles, discutant des élections locales ou organisant une fête de la Saint-Valentin de manière autonome, par exemple. Cependant, ces agents étaient également sujets à des “hallucinations” et à des erreurs, comme donner de fausses informations ou échouer à se souvenir de certains événements.

Une telle annonce est à la fois fascinante et inquiétante. La capacité de ces personnages basiques à recréer des comportements sociaux complexes en quelques heures seulement soulève plusieurs questions sur les implications éthiques et sociétales de l’intelligence artificielle, et plus largement sur le regard que nous portons sur notre humanité, jugée si unique et si propre aux humains.

Si on regarde le sujet positivement, cette prouesse technologique met en lumière le potentiel immense de l’intelligence artificielle pour modéliser et simuler des environnements sociaux. Cela pourrait avoir des applications positives, par exemple en permettant aux chercheurs d’étudier les dynamiques sociales et les comportements humains dans un environnement contrôlé, ou en offrant de nouvelles possibilités de divertissement interactif.

Il est crucial de se pencher sur les questions éthiques soulevées par de telles expériences. La facilité avec laquelle les personnages ont recréé des comportements sociaux complexes suggère que leurs “programmes” sont capables d’apprendre et d’évoluer de manière autonome.

Bien que ces constatations soient des “premiers pas” vers une intelligence artificielle générale, il reste encore un long chemin à parcourir avant d’atteindre cet objectif. Les experts soulignent qu’il faut rester sceptique et remettre en question ce que l’IA nous dit en apparence.

Surtout, si nous sommes à deux doigts de créer une civilisation virtuelle, qu’est ce qui nous dit que nous-mêmes n’en sommes pas une ? Si le sujet vous intéresse, je l’avais traité dans la newsletter Métavers & RH N°23 il y a quelques mois…

Le jeu de la vie

Le jeu de la vie est un automate cellulaire imaginé par le mathématicien britannique John Horton Conway en 1970. Il s’agit d’un jeu à zéro joueur, ce qui signifie qu’après avoir défini l’état initial du système, l’évolution des différentes générations se fait sans intervention humaine. Le “jeu” est en fait une simulation qui permet d’observer l’évolution de structures cellulaires dans le temps.

Etat d’une simulation du jeu de la vie de Conway après de nombreuses itérations.

Le jeu se déroule sur une grille bidimensionnelle (généralement de taille infinie) dont chaque cellule peut prendre deux états : vivante ou morte. L’évolution du système est entièrement déterminée par l’état initial et suit des règles simples qui déterminent l’état des cellules à chaque nouvelle génération (itération).

Les règles du jeu de la vie sont les suivantes :

  • 1) Une cellule vivante avec moins de 2 voisines vivantes meurt à la génération suivante (par isolement).
  • 2) Une cellule vivante avec 2 ou 3 voisines vivantes reste en vie à la génération suivante.
  • 3) Une cellule vivante avec plus de 3 voisines vivantes meurt à la génération suivante (par surpopulation).
  • 4) Une cellule morte avec exactement 3 voisines vivantes devient vivante à la génération suivante (reproduction).

Les voisines d’une cellule sont les 8 cellules adjacentes, horizontalement, verticalement et diagonalement. Les règles sont appliquées simultanément à toutes les cellules de la grille, et l’évolution du système se fait par étapes discrètes, appelées générations.

Le jeu de la vie a été largement étudié et a inspiré de nombreuses recherches en mathématiques, en informatique et dans d’autres domaines scientifiques. Il est fascinant de voir comment des règles simples peuvent donner naissance à des structures complexes et des comportements variés, comme des objets qui se déplacent, des structures qui oscillent ou des configurations qui évoluent de manière chaotique.

Le jeu de la vie est un exemple de système qui montre des propriétés émergentes et auto-organisées, et il est souvent cité comme un exemple de base de l’intelligence artificielle et de la vie artificielle. Si vous êtes fan du concept, je vous recommande “Game of Life Cellular Automata”, un livre de référence pour les chercheurs, les étudiants et les passionnés intéressés par les automates cellulaires et leurs applications. Il offre un aperçu complet et approfondi de la théorie, des méthodes et des résultats relatifs au Jeu de la Vie et aux automates cellulaires en général.

Vers une société de la simulation ?

Créé par Jeremy Lamri avec DALL-E2 Experimental (2023, tous droits réservés).

Dans une société de la simulation, les agents autonomes pourraient jouer un rôle central dans la gestion des processus quotidiens et dans la compréhension des dynamiques sociales et des comportements humains. Les agents autonomes, tels qu’AutoGPT, sont capables de fixer et d’accomplir des tâches, de créer de nouvelles tâches et de les prioriser pour atteindre un objectif fixé. Ils peuvent également posséder diverses compétences pour accomplir des tâches numériques et interagir avec des systèmes informatiques, des applications et des moyens de paiement.

Des expériences comme celle réalisée par les chercheurs de Stanford et Google, où des agents IA ont évolué et interagi dans une ville virtuelle, montrent que les agents autonomes peuvent modéliser et simuler des environnements sociaux complexes de manière réaliste. Cette prouesse technologique soulève toutefois des questions éthiques et sociétales, notamment concernant les implications de l’intelligence artificielle sur notre humanité et notre perception de la réalité.

Dans ce contexte, le jeu de la vie de John Horton Conway pourrait être perçu comme une métaphore de l’émergence de la société de la simulation. Les règles simples du jeu donnent naissance à des structures complexes et des comportements variés, illustrant la manière dont des agents autonomes pourraient évoluer et interagir dans des environnements virtuels complexes.

En fin de compte, une société de la simulation basée sur des agents autonomes pourrait offrir de nouvelles possibilités en matière d’étude des dynamiques sociales, de divertissement interactif et de gestion des processus quotidiens. Cependant, il est essentiel de rester vigilant et de prendre en compte les questions éthiques et les implications potentielles de cette évolution technologique sur notre perception de la réalité et notre humanité.

Conclusion

Créé par Jeremy Lamri avec DALL-E2 Experimental (2023, tous droits réservés).

L’émergence des agents autonomes et leur capacité à modéliser et simuler des environnements sociaux complexes ouvre un nouveau chapitre dans le domaine de l’intelligence artificielle. Ces avancées technologiques offrent des opportunités sans précédent pour étudier et comprendre les dynamiques humaines et sociétales, améliorer notre qualité de vie et révolutionner la recherche, le divertissement et pratiquement tous les aspects du monde tel que nous le connaissons.

Cependant, il est crucial de considérer les implications éthiques et morales liées à cette technologie, ainsi que les conséquences potentielles sur notre perception de la réalité et notre humanité. Les agents autonomes, tels qu’AutoGPT, nous invitent à réfléchir sur notre rapport à la technologie et à reconsidérer notre vision du monde. Alors que nous continuons à explorer ce terrain inconnu, il est essentiel de rester vigilant et responsable, en cherchant à tirer parti des bénéfices de ces avancées tout en restant attentif aux défis éthiques et sociétaux qu’elles soulèvent.

Comme pour toute révolution technologique, il nous appartient de façonner l’avenir de l’intelligence artificielle de manière à ce qu’elle serve l’humanité de manière positive et durable, tout en préservant l’essence même de ce qui nous rend humains. Et pour poser une brique essentielle à ce qui constituera la convergence technologique prochainement, je vous invite à vous poser la question suivante : avec une technologie telle qu’AutoGPT, à quoi peut ressembler une immersion virtuelle adaptative dans quelques années ?…

BIBLIOGRAPHIE

Adamatzky, A. (Ed.). (2010). Game of life cellular automata (Vol. 1). London: Springer.

Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y. T., Li, Y., Lundberg, S., Nori, H., Palangi, H., Ribeiro, M. T., & Zhang, Y. (n.d.). Sparks of Artificial General Intelligence: Early experiments with GPT-4. Microsoft Research.

Conway, J. (1970). The game of life. Scientific American, 223(4), 4.

Park, J. S., O’Brien, J. C., Cai, C. J., Morris, M. R., Liang, P., & Bernstein, M. S. (n.d.). Generative Agents: Interactive Simulacra of Human Behavior. Stanford University, Google Research. Retrieved from https://arxiv.org/pdf/2304.03442.pdf

[Article rédigé le 20 avril 2023 par Jeremy Lamri avec le support de l’algorithme Open AI GPT-4 pour environ 10%].

— —

Suivez mon actualité avec Linktree

Si vous vous intéressez à la combinaison du web 3 avec les RH, et plus généralement aux enjeux sociétaux liés à l’émergence du métavers, du web3 et plus largement des nouvelles technologies, je vous invite à vous abonner à la newsletter dédiée que je tiens sur le sujet, et à lire les articles que j’écris régulièrement :

--

--

Jeremy Lamri
Jeremy Lamri

Written by Jeremy Lamri

CEO @Tomorrow Theory. Entrepreneur, PhD Psychology, Author & Teacher about #FutureOfWork. Find me on https://linktr.ee/jeremylamri

No responses yet