Sakana AI, start-up basée à Tokyo fondée il y a tout juste un an par deux anciens chercheurs de Google, a récemment dévoilé “The AI Scientist”, un système entièrement automatisé qui, à partir d’une base de code, est capable de mener des recherches scientifiques de bout en bout, sans intervention humaine. Le système génère des idées innovantes, écrit du code, réalise des expériences, analyse les résultats et produit des articles scientifiques de haute qualité pour les conférences sur l'apprentissage automatique. Il compare les idées à la littérature existante à l'aide de Semantic Scholar, identifie les articles pertinents et évalue la qualité des articles générés avec une précision comparable à celle d'un humain. Bien que l'accélération de la recherche scientifique soit prometteuse, les erreurs, la surcharge de l'examen par les pairs et les biais potentiels dans les évaluations automatisées suscitent des inquiétudes. La transparence est cruciale pour les articles générés principalement par l'IA.
Limitations du système Le système présente plusieurs limites : tout d’abord, il nécessite une base de code préexistante pour fonctionner. Son absence de capacités visuelles signifie qu’il peut produire des graphiques ou des mises en page sous-optimales. De plus, il peut commettre des erreurs critiques, comme une mauvaise implémentation d’idées ou des comparaisons inexactes entre les résultats expérimentaux. Ces deux dernières limitations, bien qu’importantes, sont en cours de résolution avec le développement de versions futures plus robustes. Implications éthiques et avenir de la recherche L’introduction de The AI Scientist soulève des questions éthiques majeures. Si l’automatisation de la recherche peut démocratiser l’accès à la production scientifique, elle pourrait aussi entraîner une surcharge des systèmes de révision par les pairs et une baisse de la qualité des publications. D’autre part, l’évaluateur automatisé, s’il est déployé en ligne par les examinateurs, peut réduire considérablement la qualité des évaluations et imposer des biais indésirables aux articles. Pour les chercheurs, les articles essentiellement générés par l’IA doivent être marqués comme tels pour une transparence totale. De plus, le système d’IA peut être détourné à des fins malveillantes. Les chercheurs écrivent : “Par exemple, si on l’encourageait à trouver des matériaux biologiques nouveaux et intéressants et qu’on lui donnait accès à des « laboratoires en nuage » où des robots effectuent des expériences de biologie en laboratoire humide, il pourrait créer de nouveaux virus ou poisons dangereux qui nuisent aux gens avant que nous ne réalisions ce qui s’est passé. Même dans les ordinateurs, s’il est chargé de créer de nouveaux logiciels intéressants et fonctionnels, il peut créer des virus informatiques dangereux”.