
Por Dalia de la Peña Wing –
“La inteligencia artificial será como la Revolución Industrial, pero en lugar de superar nuestras capacidades físicas, superará nuestras capacidades intelectuales”. Geoffrey Hinton – Premio Nobel de Física 2024
Instituido en 1895 y entregado desde 1901, el Premio Nobel en las ciencias reconoce los descubrimientos que han tenido un impacto significativo en la sociedad: desde avances en la salud para mejorar la calidad de vida de las personas, hasta innovaciones tecnológicas que han cambiado nuestra forma de interactuar con el entorno.
En su edición 2024, la Real Academia Sueca de las Ciencias decidió otorgar el Premio Nobel de Física a los científicos John Hopfield y Geoffrey Hinton, “por sentar las bases de las redes neuronales de la inteligencia artificial (IA)”.

No obstante, esta decisión ha generado controversias entre algunos físicos, quienes alegan que la inteligencia artificial es más una cuestión matemática o de ingeniería, que de física. Asimismo, se ha cuestionado que si los premios Nobel fueron creados para reconocer a las mentes más brillantes cuyas aportaciones contribuyen a mejorar a la sociedad, qué tanto la IA cumple con dicho propósito, cuando ha surgido un gran número de conflictos relacionados con su impacto en el mercado laboral, así como en materia de derechos de autor y de deepfakes, entre los principales.
Con objeto de esclarecer estas controversias, el Instituto de Física de la UNAM organizó la mesa redonda “Premio Nobel de Física 2024. De la física a las redes neuronales artificiales: Un diálogo sobre el aprendizaje automático y su impacto en la inteligencia artificial”.
Con la participación de los doctores José Luis Mateos, Xim Bokhimi, Arnulfo Martínez, Huziel Sauceda y Eric Vázquez, todos ellos investigadores del IFUNAM; el evento tuvo como escenario el auditorio “Alejandra Jáidar” de dicho Instituto.
¿Fue justo haber otorgado un Premio Nobel de Física a la IA?

“La IA tenía que ser premiada. Si hubiera un Premio Nobel de Lingüística, seguro que también se lo habría llevado, pues el impacto de la aplicación de IA en esta área está cambiando todo, totalmente; está rebasando hasta lo que nosotros llamamos la inteligencia humana” aseguró Xim Bokhimi.
Sin embargo, el experto cuestionó por qué Yann André LeCun y Yoshua Bengio no fueron incluidos en la premiación, cuando también ellos fueron pioneros en este campo.
Recordó que, junto a Geoffrey Hinton, ambos recibieron el Premio Turing 2018 por sus avances conceptuales y de ingeniería para hacer de las redes neuronales profundas un componente crítico de la computación.
De acuerdo con Bokhimi, esta omisión pudo estar relacionada con la falta de experiencia en materia de IA en algunos miembros del comité Nobel.
“Estuve revisando cuál era la experiencia en IA de los miembros del comité y encontré que dos de ellos no tienen ninguna. Entonces, a mí me queda la duda sobre cuál fue el motivo o si quizá el aspecto político tuvo algo que ver con la decisión”.
Durante su intervención, el doctor Mateos aseguró que el premio está justificado en el área en que se designó porque las redes neuronales, base de muchas aplicaciones de IA, se fundamentan en principios de la física. Explicó que a finales de los setenta, John Hopfield introdujo el sistema de los vidrios de espín aplicado a analizar la memoria asociativa. Hopfield quería probar si se podía usar un sistema de espines en la memoria de una computadora para que ese patrón quedara grabado, y lo logró.
De ahí que a este sistema se le conozca como redes de Hopfield, el cual es un modelo de física estadística clásica. Por otra parte, aseguró que Geoffrey Hinton, cuya formación es en psicología, pero con un gran interés por las matemáticas y la física estadística, modificó y generalizó las redes de Hopfield, integrando un elemento de física llamado inicialmente máquinas de Boltzmann, y posteriormente máquinas de Boltzmann restringidas,
“lo que se refiere a algo similar a meterle temperatura al sistema con un factor de Boltzmann. Es decir, se trata de física estadística aplicada a este sistema, igual que se aplica a los gases, a los líquidos o a los sólidos”, aseveró el experto.
Para complementar lo explicado por Mateos, el doctor Arnulfo Martínez señaló que quizá el punto donde radica la mayor controversia sobre la asignación del Premio Nobel de Física 2024, es el hecho de que Geoffrey Hinton se dedica básicamente a hacer informática. “Sin embargo, en una entrevista previa a la asignación del Premio Nobel, Hinton mencionó que entre los modelos que él ha desarrollado, el de las máquinas de Boltzmann es su favorito, justamente porque tiene bases físicas y porque ha dado origen a muchas otras cosas, entre ellas, a las redes neuronales como las usamos actualmente”.
Por su parte, el doctor Huziel Sauceda aportó una perspectiva sobre el potencial no explotado a nivel global, y particularmente en México, de la IA en física. Señaló que, a pesar de su prominencia, a partir de 2016 muchos modelos siguen siendo “cajas negras” cuya comprensión es limitada. Sin embargo, el interés por las máquinas de Boltzmann ha resurgido en la física, permitiendo aplicaciones innovadoras en el análisis de sistemas complejos.
De esta manera, los expertos coincidieron en que el reconocimiento a la IA en el campo de la física fue acertado y que podría abrir nuevas avenidas de investigación y colaboración, con el potencial de revolucionar tanto la ciencia básica como las aplicaciones prácticas.
Controversia sobre la regulación de la IA
Para continuar con el diálogo, las intervenciones de los panelistas se centraron en un tema candente: la controversia en torno a la regulación de la IA.
El doctor Mateos destacó el impacto monumental del lanzamiento de ChatGPT en noviembre de 2022, atrayendo la atención de políticos, empresarios y público en general hacia la IA. Aseguró que este cambio ha generado un doble fenómeno: por un lado, un entusiasmo desbordante por las oportunidades económicas que ofrece, y por otro, un miedo palpable alimentado por representaciones distópicas en la cultura popular. Según Mateos, esta confusión ha llevado a muchos legisladores a tomar decisiones precipitadas sobre la regulación de la IA, a menudo sin un entendimiento profundo del tema. Por lo anterior, subrayó la importancia de «regular a los reguladores», dado que muchos de ellos carecen de conocimientos técnicos. Advirtió que la ignorancia combinada con el poder puede llevar a decisiones perjudiciales, como ocurrió en el pasado con la prohibición de la imprenta de Gutenberg. Propuso que se deben considerar modelos de regulación de diferentes partes del mundo: el enfoque restrictivo de China, el moderado de Estados Unidos y el estricto de la Unión Europea, sugiriendo que Latinoamérica podría estar rezagada en este ámbito.

El dilema ético de la IA fue abordado por Xim Bokhimi, quien aportó una perspectiva interesante al cuestionar la naturaleza misma de la regulación. Observó que la controversia en torno al Premio Nobel refleja la lucha entre quienes abogan por un control más estricto de la IA y aquellos que desean una mayor libertad en su desarrollo.
“Al igual que con la energía nuclear, el verdadero desafío no radica en la tecnología misma, sino en la naturaleza humana y en cómo se elige utilizarla. El conocimiento no puede ser regulado, pero sí se pueden establecer reglas para mitigar el comportamiento destructivo de la raza humana”, concluyó Bokhimi.
Por su parte, Huziel Sauceda se centró en la situación específica de México, donde la falta de una masa crítica de expertos en IA complica la regulación efectiva. Señaló que nuestro país es un importador casi total de tecnología en este campo y que las regulaciones propuestas carecen de un fundamento sólido debido a la escasez de especialistas que puedan orientar el proceso. Huziel sugirió que es fundamental fomentar la formación de expertos en IA en las instituciones académicas del país, y especialmente en la UNAM.
Finalmente, Arnulfo Martínez abordó la necesidad de regulaciones en el uso de IA en aplicaciones médicas. Subrayó que, dado el alto interés económico en este campo, las regulaciones son indispensables para garantizar que las innovaciones tecnológicas se adopten de manera segura. Martínez enfatizó la importancia de mantener un enfoque escéptico y crítico hacia las nuevas tecnologías, así como de preparar a las futuras generaciones de profesionales para que puedan discernir entre las aplicaciones beneficiosas de la IA y aquellas que requieren de un análisis más cuidadoso.
Definitivamente, la regulación de la IA es un tema complejo que exige un enfoque equilibrado. A medida que la IA continúa evolucionando, es fundamental que los reguladores y los científicos trabajen juntos para establecer directrices que fomenten la innovación, sin comprometer la ética ni la seguridad. Los expertos coinciden en que, para abordar esta problemática, se requiere no solo de un entendimiento técnico profundo, sino también de un compromiso colectivo para preparar a las futuras generaciones en este fascinante y desafiante campo.
Este diálogo entre especialistas del Instituto de Física de la UNAM no solo valida la decisión de haber otorgado el Premio Nobel de Física 2024 a Hopfield y Hinton, al tiempo que enfatiza el papel fundamental que la física ha jugado en el desarrollo de tecnologías que están transformando nuestras capacidades intelectuales, nuestra comprensión del mundo y el futuro de la ciencia.
