ChatGPT

ChatGPT peut-il aussi créer lui-même de l’IA ?

Offenburg, le 28 mars 2023

ChatGPT, le chatbot basé sur l’IA de la société américaine OpenAI, a suscité de nombreuses discussions. Les artistes et les rédacteurs s’inquiètent d’être remplacés par l’intelligence artificielle (IA). Les services d’assistance téléphonique, les thèses universitaires et même les scénarios complets des derniers blockbusters hollywoodiens seront-ils à l’avenir créés par l’IA ? Et quelles en seront les conséquences éthiques, sociales et normatives ? Le fabricant d’IA AITAD se demande en parallèle si ChatGPT ne pourrait pas lui-même créer d’autres IA et ce que cela signifierait pour la qualité du code, les emplois des développeurs humains et la concurrence sur le marché.

«Pourquoi devrais-je le tester si cela menace mon emploi ?», s’est demandé l’un des développeurs d’AITAD lorsque la proposition d’utiliser ChatGPT pour créer du code de programmation a été discutée.

Le codage est possible, mais la traçabilité en pâtit

D’un point de vue technique, ChatGPT ne représente pas encore une grande menace, car il utilise des bibliothèques de logiciels qui n’ont pas plus de deux ans. Les frameworks et bibliothèques actuels ne sont pas encore pris en compte par la version actuelle. Mais cela changera bien sûr avec les prochaines versions. Comparés au salaire d’un développeur, les coûts de la version premium du chatbot ne représentent en tout cas pas un obstacle.

Viacheslav Gromov, PDG d’AITAD, considère en revanche que la transparence et la traçabilité du code de programmation sont des sujets problématiques. «Il est certes envisageable que le chatbot ne se contente pas d’écrire du code de programmation, mais qu’il le documente également et qu’il écrive le programme de test en plus.» Cependant, il faut s’attendre à ce que le code du programme diffère selon la formulation des tâches (synonymes). Le style du code, pour lequel il existe des normes, est également volatile, ajoute Gromov.

L’utilisation de chatbots en tant que programmeurs comporte des risques

On peut également se demander si les développeurs humains travaillent plus efficacement s’ils doivent d’abord comprendre le code généré par l’IA, le vérifier pour détecter les erreurs et le compléter. «C’est déjà une tâche difficile pour le code généré par les humains», fait remarquer Gromov, qui voit d’abord l’utilisation du chatbot pour des tâches de programmation spécifiques. Enfin, il est contesté que les clients soient d’accord pour que leurs tâches de développement soient envoyées sur Internet au chatbot.

Comme pour tous les projets d’automatisation à grande échelle, l’utilisation de chatbots réduit les facteurs de différenciation et donc la compétitivité, car les cadres d’IA correspondants (chatbots) peuvent être utilisés par n’importe quel acteur du marché. Seul celui qui dispose de données plus nombreuses et de meilleure qualité ainsi que de ressources informatiques plus importantes pour entraîner les chatbots a également un meilleur produit final. «Cela peut rapidement conduire à une concurrence mondiale très rapide entre les États qui fixent les conditions-cadres par le biais de réglementations en matière de protection des données et de régime politique.»

Le chatbot, un assistant

Une IA qui programme elle-même des IA n’est plus un rêve (d’horreur) aujourd’hui, mais elle recèle le potentiel d’un développement plus rapide, plus étendu et plus complexe, malgré le manque de personnel. «Il faut exploiter ce potentiel. Cependant, il faut garder à l’esprit que le résultat le plus probable n’est pas toujours le meilleur. Il n’y a pas de lien obligatoire entre la probabilité et la qualité. C’est un peu comme si vous déchiriez le journal d’hier et que vous assembliez les bouts de mots qui se suivent le mieux sans les comprendre dans leur ensemble», conclut Gromov.