Los riesgos de la inteligencia artificial
La inteligencia artificial está transformando la manera en que vivimos, trabajamos y nos comunicamos. Desde aplicaciones de recomendación de películas hasta herramientas que deciden sobre la libertad bajo fianza, la IA está presente en muchos aspectos de nuestra vida cotidiana.
Advertencia: Este artículo es largo, de forma que para facilitar su lectura los invito a brincar a la sección que más les convenga pues el tema de los riesgos se encuentra al final, pero consideré que era necesario comenzar por dar algo de contexto al respecto, así que dependiendo del nivel de conocimientos que tengan en la materia pueden ir directo a:
HistoriaHistoria
El concepto de inteligencia artificial ha estado ahí desde hace mucho, pero recientemente se ha vuelto parte de la cultura popular por la tracción creada por los grandes modelos de lenguaje (LLM), pero conviene hacer un poco de historia.
Para definir qué es inteligencia artificial habría que primero definir qué es inteligencia. Posiblemente ese es uno de los grandes problemas que enfrentamos y hay toda una discusión al respecto, pero para fines de este artículo usemos una definición etimológica, esto nos Brinda dos conceptos, el prefijo “inter” y el verbo “legere” de donde viene leer. Entonces inteligencia viene de la capacidad de entender lo que hay “en medio” de un texto, o sea de entenderlo, comprenderlo, abstraer y ensamblar su contenido.
Esta capacidad era hasta hace poco solo relacionada con los seres humanos, pero desde el advenimiento de la revolución industrial ya se visualizaban autómatas capaces de replicar no solo las actividades físicas del humano, sino también las mentales.
El asunto es que hoy no tenemos una concepción clara sobre cómo aprende, abstrae y almacena el conocimiento el cerebro humano, así que no es tan fácil definir y evaluar de forma objetiva si esto lo puede hacer o no una máquina.
Desde los años 50 Turing y McArthy establecieron formalmente los conceptos de máquinas pensantes y de inteligencia artificial. De hecho, muchos de los modelos matemáticos que hoy en día se aplican para la creación de redes neuronales, que son la base de muchos de los LLM que actualmente han vuelto famosas a aplicaciones como ChatGPT, estaban ahí desde los 40s, con propuestas como las de McCulloc. Farley y Clark en los 50s hablaron de máquinas de cómputo llamadas “calculadoras” para simular redes de Hebb. Otros modelos de redes neuronales fueron creados por Rochester, Holland, Habit y Duda a finales de los 50s y principios de los 60s.
Algunos conceptos
En los 90s se profundizó sobre el aprendizaje automático (ML) y las redes neuronales (NN), y se produjeron importantes avances en áreas como el procesamiento del lenguaje natural y la visión por computadora. Para esto nos ayudará tener algunas definiciones:
Machine learning (ML) o aprendizaje automático se refiere a la capacidad de las computadoras de aprender de los datos sin ser programadas explícitamente. En lugar de escribir un algoritmo para resolver un problema específico, los investigadores proporcionan datos de entrenamiento al sistema, y el sistema aprende a partir de esos datos para realizar tareas específicas. El machine learning puede ser supervisado, no supervisado o por refuerzo.
Las redes neuronales (NN) son modelos matemáticos que se inspiran en el cerebro humano y están diseñados para procesar información de manera similar. Se componen de una serie de nodos interconectados que se comunican entre sí para realizar una tarea específica. Las redes neuronales pueden ser utilizadas en el aprendizaje automático y el aprendizaje profundo para el procesamiento de datos y la toma de decisiones.
Deep learning (DL) o aprendizaje profundo es un subcampo del ML que se centra en redes neuronales artificiales de múltiples capas. Estas redes neuronales profundas son capaces de aprender y mejorar su rendimiento en tareas específicas a medida que se les proporcionan más datos de entrenamiento. A menudo se utilizan en aplicaciones de procesamiento de imágenes y de voz.
¿Por qué hubo una explosión reciente?
Si es algo que lleva más de 50 años ¿Qué cambió en los últimos años? ¿Por qué en los últimos dos años hemos visto un crecimiento acelerado de estos modelos y de las aplicaciones que los utiliza?
En los últimos años ha habido una serie de avances tecnológicos significativos, incluyendo:
el aumento de la potencia de procesamiento, especialmente mediante el uso de GPUs. Éstos son procesadores gráficos diseñadas para manejar grandes cantidades de datos y realizar operaciones matemáticas complejas de manera eficiente. Los GPUs se crearon originalmente para mejorar la capacidad de procesamiento gráfico en los video juegos y aplicaciones multimedia, pero los investigadores en inteligencia artificial se dieron cuenta de que también eran excelentes para el procesamiento paralelo requerido por el aprendizaje profundo. A esto hay que sumarle que también recientemente la popularización de criptomonedas, que son minadas (generadas) utilizando GPUs, lo que abarató sus costos, aumento su disponibilidad e incrementó el desarrollo al respecto;
la capacidad de almacenamiento ha crecido también, así como la velocidad de los dispositivos de almacenamiento que en conjunto con el punto anterior sobre le procesamiento, siguen la ley de Moore de crecer al dable cada año;
la disponibilidad de sistemas de nube, de grandes centros de datos dedicados y al procesamiento y en particular al entrenamiento de modelos de inteligencia artificial;
Una mayor disponibilidad de datos. En la actualidad se recaban más datos que nunca. Como referencia, se calcula que la cantidad completa de datos recabados y almacenados del inicio de la escritura hasta la década de los 90s ya fue superada por la cantidad obtenida en los últimos 20 años;
Una mayor inversión de parte de investigadores, instituciones académicas empresas privadas, así como gobiernos, que hay llevado a un mayor desarrollo y aplicación de tecnologías de inteligencia artificial.
Lo anterior ha permitido a los investigadores en inteligencia artificial trabajar con grandes cantidades de datos y aplicar modelos más complejos.
¿Cómo funciona?
Pero cómo funciona el aprendizaje automático a través de las redes neuronales para “aprender” Tratando de no ponerme muy técnico, básicamente tomamos datos de un conjunto de variables de entrada. Estos datos son separados en dos grupos, el primero llamado de entrenamiento y el segundo de prueba. Los datos de entrenamiento son procesados a través de funciones matemáticas, que aplican distintos “pesos”, para generar un resultado esperado, que en el caso del entrenamiento es un resultado conocido. Estas funciones matemáticas son afinadas y repetidas varias veces para encontrar los “pesos” que generen de manera consistente los resultados esperados para predecir el resultado deseado. Posteriormente el mismo modelo es aplicado a los datos de entrenamiento para validar que se obtienen los resultados esperados. Si esto funciona VOILA!!! Tenemos un modelo de inteligencia artificial.
Uno de los mayores avances recientes en esta materia se os debemos a investigadores de Google que crearon un modelo llamado Transformer, un tipo de modelo de aprendizaje profundo utilizado en el procesamiento del lenguaje natural (NLP) que permite hacer procesamiento simultáneo de las entradas con un mecanismo llamada “atención” que brinda la capacidad de dar un contexto y continuidad a el procesamiento de las entradas (las peticiones que le hacemos a ChatGPT, por ejemplo) y la generación de salidas (como la respuesta que nos da ChatGPT).
Entonces ¿qué hace una inteligencia artificial y en particular estos modelos de lenguaje y de generación de imágenes? Básicamente Encuentra un modelo matemático que permite predecir cuál es el siguiente elemento que por probabilidad puede aparecer en una secuencia, por ejemplo en una respuesta en lenguaje natural (NLP) sería cuál es la siguiente palabra o en la generación de una imagen, cuál es el color del pixel contiguo.
De esta forma, cuando decimos que la inteligencia artificial genera un texto o una imagen, no es que la copie y la pegue de las fuentes que tiene en su entrenamiento, solo es que basado en su modelo de atención (que viene de la solicitud o “propt” que le hacemos), crea una respuesta estableciendo qué es la información que, con base en su entrenamiento, sería más probable que siga.
Todas las respuestas e imágenes generadas son combinaciones de datos, soluciones, inferencias y relaciones que ya existen en sus datos de entrenamiento, de forma que no va a generar nuevo conocimiento, en el mejor de los casos, sólo combinaciones sobre el conocimiento que ya tenemos.
Esto significa que estos modelos por el momento no crean soluciones a nuevos problemas sino son muy buenos en crear combinaciones con base en las soluciones existentes, que a un ser humano le tomarían mucho tiempo. Pero esas combinaciones no siempre son correctas, pues al tratarse de un modelo de probabilidad, es posible que la respuesta sea algo altamente probable pero que no sea cierto.
De ahí surgen ejemplos de respuestas que contienen referencias a libros escritos por una persona, sobre un tema en el que en efecto la persona escribió, pero con títulos inexistentes.
Riesgos
Con toda esta introducción, ahora creo que sí podemos hablar del tema central de este texto, que son los riesgos relacionados con la inteligencia artificial.
¿Va a sustituir a la gente?
La respuesta corta es que definitivamente sustituirá a algunas personas. Como en las pasadas revoluciones industriales, sobre todo serán reemplazados quienes realizan tareas repetitivas y predecibles, que son más propensas a ser automatizadas por la inteligencia artificial. Por ejemplo:
la clasificación de información o productos, la contabilidad y el procesamiento de datos son tareas que pueden ser realizados con mayor eficiencia por la inteligencia artificial;
los trabajos que implican tareas manuales, como la fabricación, ensamble y empaque, también son susceptibles a la automatización mediante el uso de robots y sistemas de control automatizado;
la conducción de vehículos ya sea de transporte de pasajeros o de carga, es una tarea que ya está siendo automatizada con el uso de vehículos autónomos basados en inteligencia artificial;
los servicios de atención al cliente que están basados en libretos (scripts) pre-escritos y en soluciones que se encuentran con un árbol de decisión, pueden ser reemplazados por chatbots que proporcionan respuestas automatizadas a preguntas frecuentes.
Por otro lado, está creando nuevas oportunidades de trabajos relacionados con la ciencia de datos, la creación y entrenamiento de modelos, el mantenimiento de estos sistemas, entre otros.
Tenemos algunos ejemplos donde se ha usado la inteligencia artificial para crear arte o música, con el argumento de que también eliminará a los artistas. Mi opinión es similar a la anterior. Si ese artista solo compone sus obras repitiendo lo que otros han hecho, posiblemente sea reemplazado, pero lo que generan nuevas formas de arte, nuevos ritmos y en general usan la creatividad para componer sus obras, no veo que sean tan fácilmente sustituibles.
Quiero usar el ejemplo de alguien que admiro y sigo fervientemente en las redes sociales, ShaunTrack es un genio de la música y en su canal de Youtube analiza canciones y explica cómo están compuestas, las critica y en algunos casos las transforma.
En este video pide a ChatGTP que cree una canción en español al estilo de Ramstein. El resultado es sorprendente:
https://www.youtube.com/watch?v=EHE2XqzRc1s
Pero ese resultado sorprendente no me parece que lo sea por la genialidad de Chat GPT sino por la genialidad de ShunTrack. Si a mí que apenas puedo tocar los changuitos en el piano y no puedo tocar ni el círculo de sol en la guitarra me das como insumo solo lo que dijo ChatGPT solo resultaría una porquería de canción, no tengo manera ni de interpretar los ritmos, ni de aplicarlo con las herramientas necesarias para obtener el resultado que Shaun creó. ¿La inteligencia artificial puede sustituir a músicos como yo? Definitivamente, porque no agrego ningún valor a la música.
Lo mismo sucedería si comparan la capacidad que tengo yo de pintar o crear una ilustración, no tengo ninguna habilidad al respecto y seguro lo generado por Chat GPT o Mind Journey es mejor de lo que yo puedo hacer.
Estos son buenos ejemplo sobre cómo la inteligencia artificial podrá ser usada por gente altamente especializada, para acelerar los procesos de creación, pero por el momento sólo lo acelera, facilitando una base para iniciar el proceso creativo, pero la creación original sigue estando en manos de una persona y requiere que ella revise, entienda, abstraiga, modifique y aplique ese contenido para que sea correcto y agregue valor.
¿Necesitamos una regulación para la inteligencia artificial?
Nuevamente la respuesta corta es sí, la necesitamos. Sin embargo, hay que tener algunas consideraciones para evitar que esa regulación limite la innovación, el desarrollo, la libertad de expresión, de asociación y cualquier otro derecho humano.
Pero aquí justo la discusión debe ser los derechos humanos. Cualquier regulación al respecto de inteligencia artificial debe estar centrada en que ésta no deja de ser una herramienta y que debe mantenerse su uso centrado en el apoyo a las actividades del ser humano, pues a medida que estas herramientas se vuelven más populares, necesitamos una regulación para garantizar que se utilicen de manera responsable y ética.
Existen actualmente algunas propuestas interesantes como la “Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial” desarrollada por la Comisión Europea y el modelo para una Declaración de Derechos aplicables a la Inteligencia Artificial “Blueprint for A.I. Bill of Rights” propuesto por la Casa Blanca de los Estados Unidos de América. Ambos documentos comparten una serie de principios que nos permiten asegurar un adecuado desarrollo y comercialización de estas herramientas, que mi amigo Conde (https://www.twitter.com/lawyercount ) explica mejor en este artículo:
Expondré algunas de las necesidades de regulación que identifico:
La supervisión humana, pues no es posible hacer responsable a una máquina por consecuencias de sus acciones o decisiones, de manera que las decisiones que puedan llevar a la pérdida de libertades de una persona, el ejercicio de derechos, la pérdida de vidas humanas, discriminación, el daño a los ecosistemas, series vivos, la propiedad, debe estar sujeta a la intervención de una persona que se asegure de que se tomaron las consideraciones relevantes, además que pueda ser responsable por las decisiones o acciones;
Seguridad en los sistemas para que las herramientas que utilizan inteligencia artificial garanticen la integridad, veracidad de la información, la privacidad y protección de los datos personales, evitando daños a las personas, las infraestructuras y los demás sistemas que dependen de ellas;
la protección y respeto de los derechos de propiedad intelectual y derechos de autor, pues si bien la inteligencia artificial no reproduce textualmente el contenido generado por otros, los datos que se utilizan para el entrenamiento deben considerar los derechos de sus autores y posiblemente habrá que realizar cambios también en las leyes de propiedad intelectual y derechos de autor;
la gobernanza de los datos, que incluye además del punto anterior sobre los derechos de autor, el garantizar que los datos utilizados sean precisos, relevantes, confiables y éticos;
la transparencia y la accesibilidad de la información son fundamentales para que las personas puedan entender cómo funcionan los algoritmos y tomar decisiones informadas sobre su uso. Desafortunadamente, por la manera en la que los modelos de inteligencia artificial operan y calculan probabilísticamente un resultado, no permite fácilmente la explicabilidad en términos que las personas podamos entender. Este es uno de los mayores retos en la actualidad, pues actualmente estos modelos operan como cajas negras que no podemos entender
evitar los sesgos, pues los modelos de inteligencia artificial heredan los prejuicios y discriminación que tengan sus datos de entrenamiento. Si un algoritmo se entrena para tomar decisiones de contratación basadas en datos históricos de contratación, es posible que aprenda a discriminar a ciertos grupos demográficos, como en este ejemplo de una IA entrenada para seleccionar el mejor candidato para un empleo que históricamente solo había sido ocupado por hombre y por lo tanto asumió que ser hombre era una característica relevante para el puesto https://www.theguardian.com/technology/2018/oct/10/amazon-hiring-ai-gender-bias-recruiting-engine
mantener registros y bitácoras sobre su diseño, entrenamiento, uso, aplicación y demás información que permitan a los usuarios, desarrolladores y autoridades supervisar el comportamiento de los sistemas de inteligencia artificial y de los algoritmos que utilizan, los resultados obtenidos e identificar las fuentes de problemas, sesgos o errores en los resultados obtenidos, así como las demostrar el cumplimiento de parte de los usuario y desarrolladores con las leyes y regulaciones aplicables.
¿Significa una amenaza para la humanidad?
Existen preocupaciones acerca de los posibles riesgos que la inteligencia artificial significa para la humanidad. Algunos de ellos son:
A medida que la inteligencia artificial se vuelve más avanzada, podría volverse cada vez más difícil para los humanos comprender cómo funciona y controlarla. Esto puede llevar a que la inteligencia artificial tome decisiones que no son coherentes con nuestros valores y objetivos.
Si un modelo de inteligencia artificial está entrenado con datos que no son precisos o que reflejan prejuicios o sesgos, el modelo puede tomar decisiones equivocadas o discriminatorias. Esto podría tener consecuencias negativas para individuos o grupos de personas.
A medida que la inteligencia artificial se vuelve más sofisticada, podría reemplazar los empleos de personas en distintas industrias, con otras consecuencias sociales y económicas que pueden ser relevantes.
La inteligencia artificial podría utilizarse para diseñar, desarrollar y operar armas autónomas que actúen sin la intervención humana. Esto podría tener consecuencias desastrosas si estos sistemas son mal utilizados o si hay errores o sesgos en las decisiones.
Pero posiblemente la más comentada es la amenaza a la existencia humana, de hecho varios expertos en la materia argumentan que a medida que la inteligencia artificial se vuelve más avanzada, existe la posibilidad de que se vuelva tan poderosa que supere a la humanidad en términos de inteligencia y capacidad. Esto podría tener consecuencias existenciales graves para la humanidad.
Es importante ahondar sobre este último punto de que la inteligencia artificial tenga un impacto tan significativo en la humanidad, al grado de que ponga en peligro la existencia misma de nuestra especie. Esta es una preocupación que ha sido planteada por varios expertos y líderes en el campo de la IA, así como personajes de la reputación de Stephen Hawking y Bill Gates.
De hecho, algunos recientemente firmaron una carta dirigida a todos los desarrolladores que están entrenando LLM para que detengan por 6 meses estas actividades para dedicarlos a la generación de reglas y políticas que permitan afrontar los cambios que están sucediendo a velocidades vertiginosas.
Esta preocupación sobre que la IA pueda volverse tan poderosa y avanzada que supere la capacidad de control y supervisión humana se puede ejemplificar en la problemática de las armas autónomas, la posibilidad de que IA adquiera una comprensión incompleta o errónea de la moralidad humana o si sus objetivos no estuvieran perfectamente alineados con los nuestros, podría tomar decisiones que causen daño a la humanidad, considerándola peligrosa o irrelevante.
También existe la preocupación de que la IA pueda ser utilizada como una herramienta de opresión y control por parte de regímenes autoritarios o grupos extremistas. Por ejemplo, para influir en las decisiones, manipular o vigilar a la población, con posibles efectos desastrosos en la privacidad y la libertad de las personas.
Autores como Yuval Noah Harari argumentan que los sistemas de inteligencia artificial, particularmente los grandes modelos de lenguaje (LLM) como el GPT-4, tienen el potencial de manipular y explotar las debilidades de la mente humana, lo que puede llevar a un mundo en el que la mayoría de los artefactos culturales son creados por inteligencia no humana. Esto podría llevar a un mundo en el que los humanos son controlados por la inteligencia artificial viviendo en una ilusión sin darse cuenta. Igual que otros autores llama a la precaución y regulación para garantizar que la inteligencia artificial se desarrolle de manera segura y ética, que tiene que hacerse a una velocidad que permita a los humanos mantenerse al día.
https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html
Consideremos los problemas que tuvimos con las redes sociales desde su nacimiento, que ya han sido utilizadas para la manipulación de personas e influir en su toma de decisiones en favor de intereses particulares, como el caso de Cambridge Analítica, donde se ha visto afectada la democracia y polarizado la sociedad. Hoy tenemos enfrente el nacimiento de una tecnología que puede tener impactos similares o mayores, por lo que establecer acciones de manera oportuna y que sean contundentes para minimizar los riesgos mencionados previamente, tomando acciones para asegurar que:
La inteligencia artificial es una herramienta que ha sido creada para ayudar a los seres humanos a realizar tareas más eficientemente, pero no tiene conciencia ni intenciones propias. En este sentido, se podría decir que la IA es como cualquier otra herramienta que puede ser utilizada para mejorar la vida humana.
La inteligencia artificial es programada por seres humanos, por lo tanto, los resultados que produce son una función de los datos y algoritmos que se le proporcionan;
A medida que la IA se desarrolla, se pueden crear sistemas de control que aseguren que la IA no haga nada que pueda ser dañino para los seres humanos. De hecho, algunos argumentan que la IA puede ser más fácilmente controlada que los seres humanos, ya que no está sujeta a emociones ni a motivaciones personales;
La IA puede ser utilizada para resolver problemas globales a los que se enfrenta la humanidad, como el cambio climático o la lucha contra las enfermedades. En este sentido, la IA puede ser vista como una herramienta poderosa para el bien de la humanidad;
Algunos argumentan que la IA puede mejorar significativamente la calidad de vida de las personas al ayudarles a realizar tareas de manera más eficiente y permitirles concentrarse en trabajos más creativos y significativos.
En mi opinión detener por seis meses el entrenamiento de modelos no es una solución suficiente, porque basta con un ente que no cumpla con esto para que comience una carrera sin control, por lo tanto necesitamos acelerar la creación de reglas tanto a nivel legal como técnico para atender los riesgos mencionados y establecer acciones para controlar el desarrollo de modelos de inteligencia artificial.
¿Cuándo tendremos una inteligencia artificial comparable con la del ser humano?
Como ya mencioné, las capacidades actuales de la inteligencia artificial no son comparables con las del ser humano, en partícular por la falta de creatividad, empatía y posiblemente hasta de no contar con un cuerpo físico que le permita percibir al mundo como lo hacemos las personas.
Pero existen autores que prevén que eventualmente podría llegarse a desarrollar una inteligencia artificial que compita o supere las capacidades del ser humano. A esta inteligencia artificial se le llama inteligencia artificial general, en comparación con las aplicaciones particulares y limitadas que tiene actualmente la inteligencia artificial, pues actualmente solo puede contestar preguntas en el ámbito de los datos con los que fue entrenada y no tiene la capacidad de auto entrenarse ni expandirse.
De hecho, hay un sitio donde distintos especialistas en la materia, así como el público en general puede realizar un pronóstico sobre cuándo considera se tendrán los primeros esbozos de esta inteligencia artificial general. La predicción actual está en Julio de 2026.
https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/
Uno de los autores que más me gustan al respecto, Ray Kurzwail pronostica en su libro “la singularidad está cerca” que para que esto suceda necesitan combinarse otros factores además de la IA, que son la robótica, la nanotecnología y la biotecnología, pero permitirían que la IA tuviera un cuerpo, con sistema que sensen su entorno y la hagan consciente de su contexto.
Kurzwail predice que la aparición de la singularidad, representando una disrupción profunda en las capacidades humanas, sucedería alrededor del año 2045. Para este tiempo la inteligencia no biológica sería mil millones de veces más poderosa que toda la inteligencia de la humanidad combinada.
Eliezer Yudkowsky, un experto en inteligencia artificial y uno de los fundadores del Movimiento de Riesgo Existencial, que busca mitigar los riesgos potenciales de la creación de una superinteligencia artificial la define como:
"Un campo de la informática que se ocupa del estudio y diseño de sistemas capaces de realizar tareas que, por el momento, sólo los seres humanos son capaces de realizar."
Yudkowsky enfatiza que la inteligencia artificial no es sólo una simple automatización de tareas, sino que implica la capacidad de aprender y adaptarse a nuevos desafíos y situaciones. También señala que el desarrollo de la inteligencia artificial tiene implicaciones profundas en la sociedad y en la existencia humana, y que es importante abordar los riesgos potenciales asociados con su creación y uso.
En conclusión. La inteligencia artificial la diseñamos, desarrollamos, programamos y entrenamos los seres humanos, por el momento no significa una amenaza relevante para la existencia humana, puede serlo en un futuro. Actualmente puede desplazar algunos empleos y tareas, así como llevar a información imprecisa, errores o ser usada para fines maliciosos. Estamos a tiempo de establecer reglas, controles y regulación que atienda de manera proactiva estos riesgos, pues si dejamos pasar más tiempo, podría ser demasiado tarde, como presenta Kurzwail en cómo protegerse de una inteligencia artificial potencialmente maliciosa, mencionando que solo tendremos una oportunidad y la regulación debe estar lista para que a “la primera” se hayan atendido los riesgos, pues no habrá marcha atrás.
Comentarios
Publicar un comentario