LA INTELIGENCIA ARTIFICIAL (IA): PASADO, PRESENTE Y FUTURO


Uno de lo temas de conversación más recurrentes en la actualidad gira en torno a la Inteligencia Artificial. Los medios de comunicación y las redes sociales diariamente incluyen contenidos sobre en qué consisten, cómo nos afectan en nuestra vida diaria o qué peligros entraña. Pero la IA no es sólo un tema de conversación, sino que ya nos está afectando en nuestra vida diaria y nos va a afectar mucho más en en el futuro inmediato.

En este artículo pretendo aportar algunos datos sobre qué es, cuál ha sido su origen y su evolución y cómo nos afecta.

A qué llamamos Inteligencia Artificial

Tratar de definir qué es la IA es muy difícil, ya que se puede hacer desde diversas aproximaciones, pero la mayoría de las definiciones coincide en que el objetivo original de la IA es reproducir la inteligencia humana en ordenadores. Se pretende que las máquinas aprendan de la experiencia, integren nuevos datos y realicen tareas que tradicionalmente requieren intervención humana.

Se puede distinguir una inteligencia de tipo general y otra especializada. Esta última se caracteriza porque es capaz de realizar una tares para la que ha sido programada. Por ejemplo, jugar al ajedrez. También se la conoce como inteligencia débil. En cambio la inteligencia de tipo general implicaría que un ordenador convenientemente programado no simula una mente sino que es una mente y por consiguiente debería ser capaz de pensar igual que un ser humano. En este caso también se la denomina inteligencia fuerte.

Comprende tres campos diferentes:

a) Aprendizaje Automático: pretende que los ordenadores aprendan de los datos y mejoren con el tiempo, sin estar explícitamente programados.

b) Aprendizaje Profundo: utiliza redes neuronales para analizar varios factores de datos. Estas redes neuronales son capaces de analizar datos complejos para identificar patrones y características. Ejemplo de este tipo serían los programas de reconocimiento de voz como Siri o Alexa.

c) Redes Neuronales: son sistemas informáticos inspirados en la estructura de neuronas interconectadas del cerebro humano. Un tipo de aplicación puede ser el reconocimiento de imágenes.

Los precedentes

Los estudios sobre el pensamiento lógico y el automatismo se remontan a la antigüedad clásica de Grecia. Sócrates y Platón establecieron, aunque de forma informal, el concepto de algoritmo. Aristóteles analizó la mecánica del pensamiento deductivo con lo que llamó silogismos, estableciendo la perspectiva filosófica de la lógica. En el siglo XVII Descartes teorizó sobre la posibilidad de crear una máquina capaz de emular el pensamiento humano. En 1854 George Boole creó los fundamentos de la lógica proposicional en la llamada Álgebra de Boole, fundamental en el desarrollo de los circuitos lógicos y su aplicación en los ordenadores. En 1941 se creó la primera computadora electrónica, la ABC y en 1952 apareció la IBM 701 de Nathaniel Rochester. En 1952 Arthur Samuels hizo un programa capaz de jugar a las damas y en 1955 le incorporó algunas capacidades de aprendizaje.

Origen de la IA

En 1956 se llevó a cabo en Dartmouth College (Estados Unidos) la Conferencia de Verano en Inteligencia Artificial. John McCarthy propuso para este campo de investigación el de Inteligencia Artificial (IA). Esta Conferencia es considerada la partida de nacimiento de la Inteligencia Artificial.

En los siguientes años aparecieron las primeras aplicaciones. Una de ellas fue el programa DENDRAL, que ayudaba en la identificación de estructuras moleculares. Le siguieron las investigaciones sobre redes neuronales artificiales, inspiradas en la estructura del cerebro humano. No obstante, a pesar de este rápido avance, la década de 1970-1980 es considerada el “invierno de la IA”. El progreso se estancó y la financiación para proyectos de IA disminuyó debido a las expectativas no cumplidas y a las complejidades de desarrollar sistemas inteligentes. En esta década se desarrolló el Procesamiento de Lenguaje Natural (PLN o NLP por sus siglas en inglés), que permitió a los ordenadores entender y responder al lenguaje humano.

La aparición del Aprendizaje Automático, los avances en la potencia informática y la disponibilidad de vastas cantidades de datos permitieron a los investigadores a partir de 1990 desarrollar algoritmos de aprendizaje más sofisticados. En 1997 una máquina desarrollada por IBM le ganó al campeón mundial de ajedrez, Garry Kasparov. Los últimos avances han permitido a las IA modernas realizar tareas complejas, como el reconocimiento de voz, la visión por computadora y la traducción automática, con una precisión asombrosa.

Aplicaciones basadas en IA

Hoy en día, la IA está integrada en nuestra vida diaria. Las aplicaciones basadas en esta tecnología cubren infinidad de campos, que van desde el cuidado de la salud a la automoción, la educación, los asistentes virtuales o la traducción simultánea, por señalar algunos. Pero lo que ha lanzado la carrera de la Inteligencia Artificial generativa ha sido la aparición, hace menos de dos años, de ChatGPT creada por OpenAI. Las grandes empresas tecnológicas han desarrollado sus propios sistemas. Así Meta lo hace con Llama, Google ha desarrollado Gemini y Anthropic ha creado Claude. Con todos estos modelos se pueden mantener conversaciones en varios idiomas, responden a dudas o te proponen ideas. También son capaces de redactar todo tipo de textos. Utilizan técnicas de aprendizaje profundo para analizar grandes cantidades de datos de lenguaje natural y aprender a generar texto coherente y relevante.

Utilizando IA también se pueden crear imágenes, como hace Copilot, el chatbot de inteligencia artificial de Microsoft. Con Canva podemos elaborar presentaciones y crear vídeos con Runway.

Perspectivas

Las investigaciones en IA están en pleno desarrollo, pero se han levantado muchas voces denunciando los peligros que puede entrañar el desarrollo de esta tecnología. Google ha encargado a un grupo de investigadores un informe sobre los riesgos que el uso indiscriminado de la IA pueden suponer para el mundo de la información. En el mismo se plantea que “...pueden hacer que los usuarios sean más susceptibles a la desinformación si las personas desarrollan relaciones de confianza con estos sistemas y recurren a ellos de manera acrítica como fuentes fiables de información. En segundo lugar, pueden proporcionar información ideológicamente sesgada o parcial a los usuarios en un esfuerzo por alinearse con las expectativas de estos y reforzar ideologías y sesgos específicos, lo que a su vez comprometerá el debate político saludable. En tercer lugar, los asistentes de IA pueden erosionar la confianza de la sociedad en el conocimiento compartido al contribuir a la difusión de grandes volúmenes de información que parece plausible, pero de baja calidad. Por último, pueden facilitar campañas de desinformación hiperdirigidas al ofrecer formas novedosas y encubiertas para que los propagandistas manipulen la opinión pública”. También se han planteado dudas sobre los posibles efectos negativos en las relaciones laborales o la supresión de puestos de trabajo. Últimamente se está denunciando su participación en la guerra tomando decisiones que corresponden a las personas y que no tienen en cuenta los dilemas morales que pueden suponer esas decisiones. En la Unión Europea se aprobó una ley sobre Inteligencia Artificial, la primera en el mundo que, pese a que tiene muchas deficiencias, permite abrir el camino que para muchos expertos hay que seguir. En suma, la inteligencia artificial es una herramienta que, puesta en buen uso, tiene aplicaciones beneficiosas, pero que utilizada para el mal puede ser destructiva incluso para los sistemas políticos y para las sociedades en su conjunto.

Comentarios

Entradas populares de este blog

Israel

SETENTA ANIVERSARIO DE LA DECLARACIÓN UNIVERSAL DE LOS DERECHOS HUMANOS

Banderas