Un Punto de Inflexión en la IA: Según Ilya Sutskever, Terminó la "Era de la Escalabilidad", Comienza la "Era de la Investigación"

Un Punto de Inflexión en la IA: Según Ilya Sutskever, Terminó la "Era de la Escalabilidad", Comienza la "Era de la Investigación" - bimakale.com
10 Aralık 2025 Çarşamba - 11:46 (2 Saat önce)

El pionero de la IA Ilya Sutskever sostiene que hemos llegado al final de la "era de la escalabilidad" en la que se basan los grandes modelos lingüísticos actuales. Según él, el progreso no es posible simplemente con más centros de datos y potencia de chips; se necesita una nueva "era de investigación" para sistemas más eficientes y seguros que puedan aprender como los humanos. Sutskever enfatiza que con la empresa que fundó sobre esta base, se podría lograr la superinteligencia (AGI) dentro de 5 a 20 años, pero debe construirse con valores éticos y un enfoque que valore toda la vida.

Ilya Sutskever, cofundador y ex científico jefe de OpenAI y también uno de los creadores de AlexNet, que inició la revolución del aprendizaje profundo, hizo declaraciones impactantes sobre el futuro de la IA. Sutskever afirma que la "era de la escalabilidad" (más datos, modelos más grandes, más chips) que ha dominado en los últimos años ya no proporcionará un progreso sostenible por sí sola. Según él, los sistemas actuales, que carecen de la capacidad humana para generalizar a partir de pocos ejemplos, enfrentan un problema de ingeniería fundamental. Por lo tanto, el motor del desarrollo de la IA ya no debería ser solo escalar el hardware, sino descubrir nuevos algoritmos de "aprender a aprender" mediante la investigación.

Sutskever explica que en Safe Superintelligence (SSI), la empresa que fundó con esta visión, están trabajando en más de 50 principios técnicos diferentes y siguen un camino distinto al enfoque tradicional de los grandes modelos lingüísticos. Él cree que con el enfoque correcto, se podría alcanzar la superinteligencia dentro de 5 a 20 años. Sin embargo, dado que esta transición cambiará radicalmente las estructuras económicas y sociales, la seguridad y la ética deben ser la máxima prioridad. Sutskever subraya que la superinteligencia debe estar equipada con valores que se preocupen no solo por los humanos, sino por todos los seres vivos.

En conclusión, la perspectiva de Ilya Sutskever señala un cambio estratégico en el campo de la IA. En lugar de una escalabilidad infinita, estamos entrando en un período de investigación centrado en descubrir principios de aprendizaje eficientes y similares a los humanos. Este período también buscará respuestas a preguntas existenciales como el control de la superinteligencia y su alineación con la humanidad. La advertencia de Sutskever es clara: las limitaciones de los modelos actuales no deben hacernos ignorar los riesgos futuros; es imperativo avanzar de manera preparada y responsable.


  • Ilya Sutskever
  • Safe Superintelligence
  • Yapay Zeka
  • Ölçekleme Çağı
  • Araştırma Çağı
  • Süper Zeka
  • Derin Öğrenme
  • Yapay Zeka Güvenliği



Yorumlar
Sende Yorumunu Ekle
Kullanıcı
0 karakter