Por: Lino Tejeda Salazar. Director de Sourcing
Hace más de trece años, en 2011, las grandes tecnológicas comprendieron el enorme potencial de la inteligencia artificial. Ese descubrimiento marcó la migración de cientos de expertos desde la academia hacia la industria. Durante los tres años siguientes, Google concentró a los mejores talentos en torno al proyecto Google Brain, hoy conocido como Google DeepMind.
Sin embargo, en 2014, la IA seguía viéndose como una “ciencia fallida”. Pocos imaginaron que sería la próxima ola y el próximo tsunami tecnológico. Entre ellos, Sam Altman, patrocinado por Elon Musk y Satya Nadella, junto a Greg Brockman, Ilya Sutskever, John Schulman, Andrej Karpathy y otros, dieron forma a OpenAI, precursor de la serie GPT.
En 2023, tras años de investigación, surgió GPT-4, una IA de acceso universal capaz de dominar el lenguaje de manera convincente, interactuando en lo cotidiano y resolviendo problemas reales.
El impacto fue inmediato. Yoshua Bengio, Premio Turing, junto a miles de expertos, pidió una pausa de seis meses en el entrenamiento de sistemas más potentes que GPT-4, buscando que la IA avanzada fuera más precisa, segura, interpretable, transparente, robusta, confiable y leal. Propuso un modelo de referencia: la “IA Científica”, diseñada para acelerar la investigación y el progreso humano.
En los últimos años, foros y conferencias han reunido a figuras como Geoffrey Hinton, Yann LeCun, Subbarao Kambhampati y Eliezer Yudkowsky, quienes han destacado tanto los avances como los riesgos de la IA generativa y los LLM. Algunos insisten en pausas parciales, otros en pausas indefinidas.
Marvin Minsky advertía que la evolución de la IA y la humanidad son caminos paralelos pero complementarios. Ejemplo: AlphaFold, de Demis Hassabis y John Jumper, que permitió predecir la estructura de más de 200 millones de proteínas, reconocimiento que les valió el Nobel de 2024.
Aun así, la pausa voluntaria parece inviable. Elon Musk fue el único CEO que firmó la carta de Bengio, mientras que la mayoría de líderes de Big Tech —Tim Cook, Sundar Pichai, Mark Zuckerberg— consideran que detener a un grupo no resuelve los desafíos inmediatos.
La presión económica es enorme. Bloomberg estima que en 2025 Microsoft, Amazon, Google y Meta invertirán más de 344 mil millones de dólares en IA generativa, y bancos como Goldman Sachs evalúan la rentabilidad de estas inversiones.
En paralelo, el debate ético sobre la IA avanza. Desde 2022, el Center for AI Safety trabaja para reducir riesgos sociales asociados a la IA, incluyendo sesgo algorítmico, manipulación informativa, privacidad, impacto en el empleo y autonomía en la toma de decisiones.
La gran pregunta sigue abierta: ¿la inteligencia artificial es un riesgo existencial o una herramienta para el bien común? Como advierte Yuval Noah Harari, la IA tiene potencial enorme y riesgos significativos, y el desafío es asegurar que se utilice para el florecimiento humano.
El contenido expresado en esta columna de opinión es de exclusiva responsabilidad de su autor (a) y no representa necesariamente la visión ni línea editorial de Poderyliderazgo.cl