Un Tournant pour l'IA : Selon Ilya Sutskever, l'Ère du Passage à l'Échelle est Terminée, l'Ère de la Recherche Commence

Un Tournant pour l'IA : Selon Ilya Sutskever, l'Ère du Passage à l'Échelle est Terminée, l'Ère de la Recherche Commence - bimakale.com
10 Aralık 2025 Çarşamba - 11:46 (2 Saat önce)

Le pionnier de l'IA Ilya Sutskever soutient que nous sommes arrivés à la fin de « l'ère du passage à l'échelle » sur laquelle reposent les grands modèles linguistiques actuels. Selon lui, le progrès n'est pas possible simplement grâce à plus de centres de données et de puissance de calcul ; une nouvelle « ère de recherche » est nécessaire pour des systèmes plus efficaces et sécurisés capables d'apprendre comme les humains. Sutskever souligne qu'avec l'entreprise qu'il a fondée sur cette base, une superintelligence (IAG) pourrait être atteinte dans 5 à 20 ans, mais elle doit être construite avec des valeurs éthiques et une approche valorisant toute vie.

Ilya Sutskever, co-fondateur et ancien directeur scientifique d'OpenAI et également l'un des créateurs d'AlexNet, qui a initié la révolution de l'apprentissage profond, a fait des déclarations frappantes sur l'avenir de l'IA. Sutskever déclare que « l'ère du passage à l'échelle » (plus de données, modèles plus grands, plus de puces) qui a dominé ces dernières années ne permettra plus à elle seule un progrès durable. Selon lui, les systèmes actuels, dépourvus de la capacité humaine à généraliser à partir de peu d'exemples, font face à un problème d'ingénierie fondamental. Par conséquent, le moteur du développement de l'IA ne devrait plus être simplement l'augmentation de la puissance matérielle, mais la découverte de nouveaux algorithmes « apprenant à apprendre » par la recherche.

Sutskever explique qu'à Safe Superintelligence (SSI), l'entreprise qu'il a fondée avec cette vision, ils travaillent sur plus de 50 principes techniques différents et suivent une voie distincte de l'approche traditionnelle des grands modèles linguistiques. Il estime qu'avec la bonne approche, une superintelligence pourrait être atteinte dans 5 à 20 ans. Cependant, cette transition changeant radicalement les structures économiques et sociales, la sécurité et l'éthique doivent être prioritaires. Sutskever souligne que la superintelligence doit être équipée de valeurs soucieuses non seulement des humains, mais de tous les êtres vivants.

En conclusion, la perspective d'Ilya Sutskever signale un changement stratégique dans le domaine de l'IA. Au lieu d'un passage à l'échelle infini, nous entrons dans une période de recherche axée sur la découverte de principes d'apprentissage efficaces et similaires à ceux des humains. Cette période cherchera également des réponses à des questions existentielles telles que le contrôle de la superintelligence et son alignement avec l'humanité. L'avertissement de Sutskever est clair : les limites des modèles actuels ne doivent pas nous amener à ignorer les risques futurs ; il est impératif d'avancer de manière préparée et responsable.


  • Ilya Sutskever
  • Safe Superintelligence
  • Yapay Zeka
  • Ölçekleme Çağı
  • Araştırma Çağı
  • Süper Zeka
  • Derin Öğrenme
  • Yapay Zeka Güvenliği



Yorumlar
Sende Yorumunu Ekle
Kullanıcı
0 karakter