Los Nobel de Física y de Química 2024 están protagonizados por esta tecnología y disciplina, demostrando su potencial para superar retos críticos de la humanidad.
La inteligencia artificial (IA), con los avances e impactos que ha significado e impulsado su desarrollo, es cada vez más influyente en la sociedad y su poder reconoció uno de los más importantes galardones del mundo para destacar a personas o instituciones por sus trabajos y contribuciones notables a la humanidad en distintas áreas.
La revolucionaria tecnología y disciplina protagoniza en categorías de Física y Química del Premio Nobel 2024, anunciados del 7 al 14 de octubre y que se entregarán en una ceremonia el 10 de diciembre.
El Nobel de Física fue para quienes sentaron las bases que han permitido que las máquinas aprendan, los profesores John Hopfield de la Universidad de Princeton (Estados Unidos) y Geoffrey Hinton de la Universidad de Toronto (Canadá).
En Química se destacó a David Baker de la Universidad de Washington (Estados Unidos) por lograr el diseño computacional de proteínas, y a Demis Hassabis y John Jumper, respectivamente cofundador e investigador sénior de Google DeepMind, que “desarrollaron un modelo de IA para resolver un problema de hace 50 años: predecir las estructuras complejas de las proteínas”, dijo el Comité del Nobel.
Hitos científicos con enorme potencial para contribuir en investigaciones, progreso y bienestar, cuyas implicancias aborda un grupo de académicos del Doctorado en IA que imparte en consorcio el Cruch Biobío-Ñuble -integrado por universidades de Concepción (UdeC), Católica de la Santísima Concepción (Ucsc), del Bío-Bío (UBB) y Federico Santa María (USM)-.
“Contribuciones pioneras al machine learning a través de redes neuronales artificiales”, relevó sobre el galardón en Física el doctor Ricardo Flores, experto en data science y docente del Departamento de Ingeniería Informática y Ciencias de la Computación UdeC, “su trabajo ha tenido un profundo impacto en las tecnologías de IA modernas, permitiendo a las computadoras procesar y analizar enormes conjuntos de datos de manera eficiente”.
Los logros, contribuciones e impacto se basan en principios de la física teórica y se originan cuando “en 1982 Hopfield propuso las redes de Hopfield que reconocen patrones a partir de una versión distorsionada de estos, basándose en un principio de minimización de energía”, explicó el doctor en ciencias de la ingeniería Yasmany Prieto, académico de la Facultad de Ingeniería Ucsc. Y “en 1985 Hinton desarrolló la máquina de Boltzmann, en la cual la red aprende de forma automática basándose en principios de la física estadística”.
Así se han generado tecnologías y herramientas posibles de aplicar en campos diversos e impensados, como los avances desde donde se producen y los que impulsan.
Caso del Nobel de Química que reconoce “una revolución en la biología estructural y la bioquímica”, sostuvo el doctor Carlos Farkas, especialista en investigación genómica y bioinformática y académico de la Facultad de Medicina Ucsc.
Hassabis y Jumper desarrollaron en DeepMind a “AlphaFold 2”, “modelo de IA que usa redes neuronales profundas para resolver el ‘problema del plegamiento de proteínas’ que la comunidad científica ha enfrentado durante décadas y sigue en debate”, expuso. “Baker con su equipo generaron “Rosetta”, suite de software fundamental en el modelado y diseño de proteínas y resolución de estructuras macromoleculares”. Hallazgos vitales: las proteínas están en cada célula y se implican en procesos químicos-orgánicos esenciales, por lo que son básicas para la vida y su conocimiento es de impacto directo sobre la salud y medicina.
“El machine learning ha revolucionado la ciencia, el conocimiento y la tecnología al automatizar procesos y descubrir patrones en grandes conjuntos de datos complejos”, relevó Flores.
“La IA es uno de los pilares del desarrollo industrial actual que busca automatizar gran parte de los procesos y aprovechar eficientemente grandes volúmenes de datos. También está presente en nuestro día a día, aunque a veces no estemos conscientes: sistemas de recomendación de plataformas streaming, asistentes personales digitales, traductores de idioma, motores de búsqueda de internet, casas y vehículos inteligentes”, ahondó Prieto.
Por ello “los logros de los laureados ejemplifican el poder transformador de la IA”, manifestó Farkas.
Los hitos que han reconocido los Nobel de Física y Química 2024 demuestran el enorme poder de la IA que hay que saber aprovechar a distintos niveles y para las más diversas áreas en pos del progreso y bienestar en la sociedad.
“Que un campo considerado casi muerto hace diez años haya resurgido con tanta fuerza subraya cómo la IA puede superar barreras que antes parecían insalvables”, resaltó el doctor Carlos Farkas. “Hace una década la predicción de la estructura de proteínas se consideraba casi estancado. Gracias al desarrollo de herramientas como Rosetta y AlphaFold 2 hemos sido testigos de un salto importante que ha revitalizado y transformado este ámbito científico”, profundiza. Y así también la trascendencia de estos avances: “Los aportes de estos investigadores han resuelto problemas fundamentales que durante años parecían insuperables y abierto nuevas fronteras en el diseño de fármacos, comprensión de enfermedades y biotecnología en general”.
Lo aplica en sus estudios, donde usan AlphaFold para modelar regiones difíciles en modelos de proteínas, integrando la IA para predecir estructuras y estudiar ciertas mutaciones que provienen de distintas enfermedades humanas.
“Esto invita a reflexionar sobre la importancia de integrar la IA y la computación avanzada en diversas disciplinas para acelerar el ritmo de los descubrimientos y para abordar problemas complejos que afectan a la humanidad”, enfatizó el académico.
Las evoluciones que revolucionan de la mano de la IA ejemplifican su propio desarrollo.
El doctor Yasmany Prieto explicó que la IA “es un conjunto de tecnologías y métodos matemáticos que permiten a sistemas informáticos realizar tareas complejas que tradicionalmente requerirían inteligencia humana como percepción, razonamiento, aprendizaje, comunicación y planificación”.
El término apareció en 1956 para comenzar a explorar su desarrollo que nunca tuvo “el auge y acercamiento al público general actual”, afirmó. “Los avances de los últimos años han sido favorecidos por el aumento de la potencia de cómputo de los dispositivos digitales, avances en sistemas de comunicaciones y la disponibilidad de enormes cantidades de datos”.
Y sostuvo que la rama del machine learning-ML (aprendizaje de máquina o automático) es una de las que más crecimiento ha tenido, basada en algoritmos y modelos para entrenar a computadoras desde un conjunto de datos para realizar tareas sin instrucciones explícitas.
Así se han automatizado labores en la industria, y desarrollado desde sistemas de recomendación y reconocimiento de voz hasta visión computacional y detección precoz de patologías. Así las personas conviven a diario con la IA en inteligentes celulares o electrodomésticos.
En ML entran las redes neuronales artificiales, que se emplean en el deep learning (aprendizaje profundo) para identificar y resolver problemas complejos y transformar la IA con su influencia, avanzando de lo predictivo a lo generativo con herramientas como ChatGPT.
Entre beneficios de estos grandes avances, que incluyen la forma de realizar investigación hasta procesos industriales, el doctor Ricardo Flores destacó “soluciones significativamente más rápidas a problemas complejos que involucran texto, imágenes, genética y más”. Algo que se está aprovechando, porque contó que una encuesta de 2024 mostró que “65% de las organizaciones utilizan regularmente la IA generativa, casi el doble que el año anterior, y se espera que impulse cambios sustanciales en las prácticas comerciales”. Y es que, aseguró, se está evolucionando hacia sistemas capaces de tomar decisiones proactivas.
Contexto en que manifestó que “el potencial de la IA sigue en gran medida sin explorar”, porque “ha logrado avances notables y está preparada para un mayor crecimiento, pero aún queda mucho por explorar respecto a sus capacidades e implicaciones para la sociedad”.
Flores advirtió que, así como se han vivido y proyectan ventajosos avances, se plantean desafíos para la mejor aplicación y máximo aprovechamiento de la IA que precisan investigar, explorar y regular.
Va desde lo técnico-tecnológico en cuestiones como infraestructura e interoperabilidad, a lo social y ético para un uso responsable y justo por potencial desplazamiento laboral al automatizar tareas o manejo de datos y manipulación de información o capacidad de la población para usar la IA.
“Para maximizar los beneficios de la IA y abordar los desafíos sociales es esencial establecer pautas éticas para un uso responsable, desarrollar regulaciones sólidas de privacidad de datos que permitan a las personas controlar su información, y mejorar las iniciativas de educación y capacitación para la fuerza laboral”, afirmó Prieto.
También es clave la colaboración interdisciplinaria e intersectorial para crear soluciones efectivas para abordar retos complejos y críticos, además de promover la equidad del acceso para superar la brecha digital en la sociedad y que el avance de la IA no sólo beneficie a unos pocos.
Ante este desafiante escenario la valoración del aporte desde Biobío del Doctorado de IA del Cruch Biobío-Ñuble del que son académicos, el primero de Latinoamérica en su tipo y creado con financiamiento del Gobierno Regional para formar capital humano avanzado de distintas disciplinas para aplicar la IA en áreas estratégicas para el desarrollo, y que comenzó a impartirse este año.