Cada vez más, la inteligencia artificial y las tecnologías digitales están revolucionando las tareas humanas y se están integrando en la vida diaria.

Hoy en día, una cantidad creciente de tareas que eran realizadas exclusivamente por las personas se ejecutan entre los ámbitos de las máquinas digitales y el humano. El uso de dispositivos, desde los teléfonos inteligentes y los implantes electrónicos hasta el uso de internet y ciertos vehículos que, en entornos controlados, operan sin conductor, entre otras tecnologías, ya forman parte integral de la vida en diversos contextos. Esta tendencia está avanzando significativamente con los adelantos de la IA.

Aunque aún no hay una definición única de la IA, esta tecnología experimental en constante transformación podría definirse, a grandes rasgos, como “el esfuerzo por automatizar tareas ‘intelectuales’ mediante una máquina, que, gobernada por un algoritmo, es capaz de ejecutar por sí misma funciones que generalmente requieren de la participación de la inteligencia humana”. Así, la IA aquí se entiende como la automatización de ciertas tareas intelectuales humanas realizadas por una máquina dirigida por un algoritmo; es decir, instrucciones que se imparten a una máquina, incluyendo todas las opciones posibles a las que se enfrentará para ejecutar dicha tarea.

“La IA (incluso en su incipiente estado actual) nos abre a nuevos horizontes, pero también importantes riesgos y problemas”.

Las ideas que han impulsado el desarrollo de las máquinas inteligentes tienen raíces en el pasado.

Aunque no resulta sencillo establecer el punto de origen de la historia del desarrollo de las máquinas “inteligentes”, podría considerarse que el germen de las ideas precursoras de la IA se remonta al pasado lejano. Por ejemplo, Aristóteles, hace poco más de dos milenios, ya proponía convertir la mecánica del pensamiento humano en una serie de reglas. Posteriormente, el mallorquín Ramón Lull diseñó un artefacto mecánico con ruedas y palancas, al que denominó Ars Magna, capaz de hacer “demostraciones lógicas para validar o refutar teorías”. Este podría considerarse como el primer intento rudimentario de usar la lógica matemática con el fin de “producir conocimiento con una máquina”. Más tarde, fue la literata y matemática Ada Lovelace, cuando estudiaba el artefacto para realizar cálculos matemáticos diseñado en 1837 por el matemático Charles Babbage, quien ofreció una comprensión “de lo que hoy se considera el primer algoritmo, uno de los elementos centrales de la IA”. Otro avance significativo en la historia de la evolución de la IA fue cuando en 1997 IBM desarrolló un sistema de IA llamado Deep Blue, que venció en ajedrez a Garri Kaspárov, el mejor jugador de entonces. Posteriormente, a principios del 2010, los desarrollos en IA volvieron a experimentar un empuje significativo gracias al interés y las cuantiosas inversiones destinadas a esta área de la tecnología. Hasta ese momento, los sistemas de IA dependían de que programadores humanos “alimentaran” información a las máquinas.

“El aprendizaje, entonces, se ha convertido en la capacidad más importante de la IA”.

El siguiente gran avance que marcó un cambio paradigmático fue la llamada “IA basada en datos”, la cual se basa en el uso de redes neuronales artificiales, un tipo de “algoritmo inspirado en la manera en que el cerebro animal conecta las neuronas e intercambia impulsos”. En este modelo, se le alimentan datos a la IA y también se le proporcionan las herramientas que le permitan “aprender” de estos datos de manera automatizada. Es importante señalar que aunque las redes neuronales artificiales se inspiran en el modelo de las neuronas biológicas, las llamadas redes neuronales artificiales de la IA no tienen “nada que ver con el cerebro humano”, cuya altísima complejidad no proviene solo de una conectividad neuronal a gran escala, sino de una intrincada mezcla de procesos electroquímicos que aún no se han logrado conocer de manera detallada, ni son una simulación del cerebro humano.

Los avances algorítmicos, los datos y la computación son tres pilares que sostienen los desarrollos recientes de la IA.

El avance de la IA se sostiene en “tres pilares”: los desarrollos “algorítmicos, los datos y la computación”, que, desde principios de 2010 tuvieron avances significativos que propiciaron innovaciones que se tradujeron en el progreso de la IA. Ya desde mediados de la década de 1990 se comenzó a popularizar el uso de tecnologías como internet, que para el inicio del siglo XXI había evolucionado en una segunda generación de aplicaciones y servicios, la Web 2.0, en la cual los usuarios pasaron de ser consumidores de información a ser también productores de contenidos que serían, a su vez, consumidos por otros usuarios. Así, se marcó el inicio de las redes sociales, las wikis y los blogs, así como la propagación del uso de dispositivos inteligentes portátiles. El elemento más reciente en estos avances interconectados es la tecnología conocida como Internet de las cosas, es decir, objetos con sensores enlazados a internet, los cuales reúnen datos que permiten a las personas interactuar con ellos. La gran alimentación y circulación de datos dio lugar a los llamados Big Data.

En el año 2000, mientras el torrente de datos circulando en la red aumentaba, fue posible producir un nuevo tipo de “red neuronal” artificial, gracias al desarrollo de los chips aceleradores GPU (Graphics Processing Units), desarrollados por Nvidia para los videojuegos 3D. Los chips GPU son un tipo de hardware especializado que incrementa la velocidad de aplicaciones que requieren realizar grandes cálculos, agilizando el proceso de entrenamiento de aprendizaje de una red neuronal artificial. A partir de ello, se desarrollaron avances en tres dominios clave: la visión computarizada con interpretación de videos e imágenes, el procesamiento del lenguaje natural y la comprensión del habla.

Vivimos una época de interdependencia entre lo humano y la IA.

Todos estos avances han permitido desarrollar algoritmos que tienen flexibilidad para afrontar tareas difíciles y ofrecer soluciones menos centradas en la ingeniería, cuya calidad no necesariamente está estrictamente limitada por la comprensión humana del mundo y condicionada por el código escrito que un programador humano le alimentara a un algoritmo de IA. Estos desarrollos estimularon un nuevo ciclo de crecimiento para la industria de la IA, generando grandes ganancias para las empresas que han basado sus modelos de negocio y productos en las redes neuronales artificiales, por ejemplo, Google, Facebook, Amazon, Apple, Microsoft, Tesla, Baidu, Tencent y Alibaba, entre otras.

“Ahora, la responsabilidad de la toma de decisiones y del aprendizaje ya no es de los programadores, sino de la propia IA”.

Otro punto paradigmático en los avances de la IA fue en 2016 cuando AlphaGo, una IA desarrollada por la empresa DeepMind, propiedad de la matriz de Google, Alphabet, superó en el juego llamado Go –considerado uno de los juegos más complejos de la historia– al campeón mundial, Lee Sedol. Esto tuvo consecuencias geopolíticas: a partir de entonces, el gobierno chino comenzó a invertir para desarrollar un liderazgo en IA. Así, en suma, considerando todos estos avances a lo largo de la historia del desarrollo de la IA, podría decirse que, en la actualidad, nos encontramos en un “paradigma coevolutivo”, donde se ha desarrollado una “interdependencia” entre los humanos y la IA, aunque el equilibrio entre ambas aún no queda completamente claro.

El aprendizaje por refuerzo es una estrategia que permite a la IA “aprender por sí misma”, mediante la experiencia.

A partir de los avances previos en investigación y desarrollo de la IA, la siguiente idea que surgió en consecuencia fue la de desarrollar una IA que pudiera aprender sin necesidad de contar con datos. Esta perspectiva abrió una línea de investigación orientada al llamado “aprendizaje por refuerzo” o reinforcement learning, una estrategia en la que la IA aprende a través de la experiencia. Esto consiste en indicar a la IA no qué hacer sino qué debe descubrir por sí misma, experimentando a través de la interacción mediante prueba y error, analizando aquello que le produzca mayores recompensas y eligiendo esa opción en el futuro; es decir, maximizando las recompensas.

El siguiente hito en el desarrollo de la IA fue cuando los investigadores de DeepMind buscaron que una IA aprendiera por sí sola cómo ganar en un juego, compitiendo contra sí misma y sin contar con expertos que la guiaran. Como señala Oriol Vinyals, director de investigación de DeepMind, los juegos ofrecen un entorno ideal para hacer pruebas controladas de IA y definir los objetivos. Desarrollaron un sistema que al comienzo solo tiene una red neuronal artificial que compite contra sí misma, sin saber nada acerca del juego, salvo las reglas. La calidad del juego avanza automáticamente y, mediante la iteración, el sistema refina su rendimiento y las redes neuronales artificiales desarrollan más precisión. La IA aprende de su propia experiencia al jugar contra sí misma millones de partidas y, en vez de analizar todas las movidas posibles, se enfoca solo en las movidas con más potencial, según su experiencia previa. Así, en 2018, la revista Science informó que se había desarrollado un algoritmo que hacía posible que una IA, llamada AlphaZero, aprendiera por sí misma. Este algoritmo no requiere datos para aprender, pero sí una computación y desarrollos tecnológicos y metodológicos más potentes, incluido un Tensor Processing Unit o TPU, construido por Google. AlphaZero desarrolló un estilo de juego creativo propio, así como “nuevas técnicas inéditas al conocimiento humano hasta aquel momento”.

Los desarrollos en el aprendizaje por refuerzo y las redes neuronales artificiales ya ofrecen aplicaciones para el mundo real.

Aunque el primer objetivo de AlphaZero era vencer a los mejores jugadores no humanos de Go (AlphaGo) y ajedrez (Stockfish), la intención de crear AlphaZero iba más allá de los juegos de mesa. DeepMind quería desarrollar sistemas que fueran capaces de ofrecer soluciones a problemas complejos del mundo real. Por ejemplo, en 2020, DeepMind desarrolló el software AlphaFold, inspirado en el algoritmo de AlphaZero, capaz de “predecir cómo se plegará una molécula de proteína en su forma final en función del código genético”, un hito en el campo de la biología computacional. Tecnologías como AlphaFold y otras, como los modelos de lenguaje que impulsan ChatGPT de OpenAI, ejemplifican posibles aplicaciones del aprendizaje por refuerzo en el campo de la IA y de las redes neuronales artificiales.

La IA generativa basada en modelos de lenguaje, como ChatGPT, ha experimentado una evolución significativa, pero enfrenta un problema preocupante: la falta de veracidad y los sesgos de información que a veces producen.

Los desarrollos recientes en IA están generando rápidos avances en campos como el lenguaje y la creación de imágenes. Pero ¿se puede considerar que la IA es creativa? Algunos consideran que sistemas como DALL-E o ChatGPT son, en efecto, creativas. No obstante, otros consideran que no puede considerarse que estas tecnologías son creativas, ya que solamente “generan” respuestas que se basan en lo aprendido a partir de datos creados, en último término, por humanos. Por ello, solo se les otorga el adjetivo de “IA generativa”

.

“A medida que la IA se aplica con éxito en más y más áreas se hace evidente que se está convirtiendo en una tecnología imparable y de consecuencias únicas”.

Los modelos de lenguaje GPT (Generative Pre-Trained Transformer), como la IA generativa ChtGPT, son un tipo de red neuronal artificial que se basa en “el paradigma de la fuerza bruta”, en el que “miles de millones de parámetros” se entrenan con enorme cantidades de datos, para lo que se requiere de “supercomputadoras a gran escala”. Los modelos GPT están diseñados para enfocarse en los distintos componentes de una frase para generar relaciones entre estos. Esto le permite interpretar los significados de las palabras dependiendo de su contextualización. Aunque en la versión posterior al GPT-3 se incluyó “retroalimentación con intervención humana” en su entrenamiento, el modelo aún es propenso a tener ciertos problemas de veracidad y algunas de las respuestas que ofrece son erróneas; la información también puede contener sesgos y prejuicios de opinión humana. Aunque estos modelos continúan evolucionando, dichos problemas constituyen uno de sus aspectos más preocupantes. No obstante estas limitaciones, el desarrollo de la IA generativa sigue en aumento y muy seguramente pronto estará presente en cada vez más áreas de la vida cotidiana.

Aunque la IA aún no es como la inteligencia humana, varios expertos llaman a ralentizar su evolución hasta comprender mejor sus alcances y potenciales.

Un tipo de IA, denominada IA Específica, IA Débil o IA Estrecha, en algunas instancias ya es tan eficiente como un humano para realizar ciertas tareas específicas, por ejemplo, redactar textos, si cuenta con instrucciones claras. No obstante, las IA hoy día no son capaces de comprender la relación causa-efecto y carecen de sentido común, una característica fundamental de la inteligencia humana que nos posibilita tomar decisiones en contextos de incertidumbre. No obstante, algunos investigadores hipotetizan que, a pesar de sus limitaciones actuales, ciertos desarrollos de IA, como ChatGPT, podrían ser, en un futuro potencial, los precursores de “sistemas que razonen como los humanos”. A este modelo hipotético lo denominan IA General o IA Fuerte, que se refiere a un tipo de inteligencia hipotética que podría compararse con la humana y permitir que las máquinas “pensaran”, en el sentido amplio de la palabra.

Hay que enfatizar que en los paradigmas de IA que se discuten aquí, aún se requiere que un ser humano “pulse el botón de ‘inicio’ para una tarea específica”, y que la IA todavía está lejana de ser como la inteligencia humana. La evolución de la IA se relaciona con el incremento de la capacidad computacional. Un reconocido grupo de expertos propone pausar el desarrollo avanzado de IA para implementar protocolos de seguridad y legislación, incluyendo entrenamientos superiores al GPT-4, en la carta pública Pause Giant AI Experiments. Dicha pausa ayudaría a prevenir llegar a “modelos de ‘caja negra’”, es decir, no “saber cómo llegan a tomar una decisión determinada”, cada vez de mayor envergadura y con “habilidades emergentes” que rebasen nuestra comprensión.

“Para prevenir riesgos urge establecer un marco de regulación que vele por el desarrollo y el uso de la IA, en el más amplio sentido del término”.

La IA ofrece grandes oportunidades pero requiere una ética centrada en el bien humano.

Esta tecnología ofrece una potente oportunidad para expandir los horizontes creativos y la resolución de problemas. No obstante, aún presenta serios problemas éticos y legales críticos, como seguridad, discriminación, responsabilidad social, privacidad, transparencia, desinformación y noticias falsas, entre otros. Además, preocupa el desarrollo de armas autónomas y el actual carácter de la IA de “caja negra”, así como el gran consumo energético que requiere. También se prevé que la IA transforme los perfiles laborales, la educación y el mercado global y, se vaticina que la IA, en un futuro, se sumará a los servicios públicos. Actualmente, Europa está en proceso de aprobar reglamentos sobre IA. Por todo ello, es esencial crear marcos éticos y regulaciones que prioricen el bienestar humano en todo lo relacionado con la IA y educar a la gente para que pueda participar críticamente en la toma de decisiones en este campo.

Sobre el autor

Jordi Torres es catedrático de Arquitectura de Computadores de la Universidad Politécnica de Cataluña, profesor en la Facultat d'Informàtica de Barcelona e investigador sénior y Expert Advisor en computación de alto rendimiento (HPC) e inteligencia artificial en el Centro de Supercomputación de Barcelona (BSC).