La inteligencia artificial (IA) es un área donde un sistema de cómputo puede tomar decisiones sobre problemas complejos, de manera autónoma. Está permeando en nuestras vidas casi sin que nos demos cuenta: con refrigeradores que avisan cuando falta un artículo, o procesos de información industriales que recaban información para hacer productos más eficientes.
Para debatir sobre este tema en la frontera del conocimiento, la UNAM, el Centro Europeo de Investigaciones Nucleares (CERN) y la Organización para la Cooperación y el Desarrollo Económicos (OCDE) organizaron el simposio internacional “Inteligencia artificial para la ciencia, la industria y la sociedad”, en el que expertos nacionales y extranjeros discuten aspectos científicos, aplicaciones, cuestiones éticas y legales de esta tecnología en el siglo XXI.
En el encuentro, inaugurado por William Lee, coordinador de la Investigación Científica de esta casa de estudios, Lukas Nellen, investigador del Instituto de Ciencias Nucleares (ICN) y coorganizador del simposio, dijo que la inteligencia artificial y el aprendizaje de inteligencia por máquina es una de las tecnologías más importantes del siglo XXI.
Se usa casi sin percatarnos en servicios como el Siri de los teléfonos celulares, en la computadora cuando le damos instrucciones a Google, o en Netflix, cuando nos ofrece una programación de acuerdo a nuestro perfil de usuario, resaltó.
En investigaciones científicas, por ejemplo, la IA ayuda a buscar en grandes conjuntos de datos señales muy débiles, como se hizo en el descubrimiento del bosón de Higgs (la partícula de Dios), y en ciencias de datos pueden mejorar sus resultados con estas técnicas.
“Como humanos estamos delegando la toma de decisiones a computadoras, y la pregunta es quién toma la responsabilidad en estos casos”, subrayó Nellen.
Boris Escalante, titular del Centro Virtual de Computación (CviCom) de la UNAM, expuso que la IA no es un área exclusiva de la computación o las matemáticas, pues puede impactar en todos los ámbitos del quehacer humano: medicina, educación, desarrollo sostenible y energía, entre otros.
“Estamos en el momento de preguntarnos qué pasa cuando una decisión tomada por una computadora es equivocada. Hay que analizar de quién es la responsabilidad”, añadió.