Principios propuestos en camino a una Inteligencia Artificial General

 

La Inteligencia Artificial (IA) ha generado un avance revolucionario en el mundo recientemente, brindando oportunidades sin precedentes para optimizar los negocios, optimizar procesos e incluso mejorar la calidad de vida y aumentar la eficiencia en diversas áreas. Sin embargo, también conlleva riesgos significativos que deben abordarse con responsabilidad y ética.

Para identificar los principios que requerimos para el adecuado uso y control de la IA, comenzaremos por entender las ventajas y desafíos de la IA, así como algunas medidas clave para garantizar un uso responsable y seguro de esta tecnología.

La IA ha demostrado ser una herramienta valiosa en diversos sectores, ofreciendo una serie de beneficios para el ser humano:

·         Automatización de tareas repetitivas, principalmente tareas rutinarias y monótonas de manera rápida y precisa, liberando a los seres humanos de trabajos tediosos y permitiéndoles centrarse en tareas más creativas y estratégicas,

·         Automatizar procesos complejos, mejorando la eficiencia y la productividad de las organizaciones, lo que se traduce en un uso más efectivo de los recursos y una mayor competitividad en el mercado,

·         Los algoritmos de IA pueden analizar grandes cantidades de datos y patrones para ayudar en la toma de decisiones informadas y precisas, lo que es especialmente valioso para decisiones estratégicas en negocios y gobiernos,

·         Análisis de datos masivos, gracias a la capacidad de procesar grandes volúmenes de datos y encontrar patrones y tendencias que serían difíciles de identificar para los seres humanos, lo que brinda una comprensión más profunda y detallada de la información,

·         Reducción de errores humanos: La IA tiene una capacidad mínima de error en comparación con los seres humanos, lo que es crucial en aplicaciones críticas como la atención médica y la seguridad.

Así como existen estos beneficios, también es necesario analizar los desafíos y Riesgos de la Inteligencia Artificial, que podemos leer con más detalle en este artículo https://www.pcoronaf.com/2023/04/los-riesgos-de-la-inteligencia.html .

Podemos resumirlos en:

  • Falta de profesionales especializados, pues la implementación y el desarrollo de soluciones de IA requieren expertos altamente capacitados en ciencia de datos, aprendizaje automático, ética, gobernabilidad y otras disciplinas relacionadas. La escasez de talento en este campo puede limitar su adopción,
  • Deficiente o limitado acceso a datos, ya que la IA depende de grandes cantidades de datos para entrenar sus algoritmos. Sin acceso adecuado a datos de calidad, la IA puede no ser efectiva o incluso generar resultados sesgados, 
  • Falta de alineación con los valores humanos, pues la IA carece de emociones y valores propios, lo que puede llevar a decisiones frías y deshumanizadas si no codificamos en ella nuestros intereses y expectativas. Garantizar la ética en el desarrollo y aplicación de la IA es fundamental para evitar consecuencias no deseadas, 
  • Amenazas a la privacidad y seguridad, debido a la recopilación y el uso masivo de datos que pueden plantear tratamiento intensivo de datos personales no alineado a los intereses de sus titilares, así como posibles vulneraciones si no se protegen adecuadamente, 
  • Desplazamiento de empleo derivado de la automatización impulsada por la IA, lo que puede tener un impacto negativo en las personas cuyas habilidades son reemplazadas por máquinas, 
  • ·Uso malicioso, por ejemplo la creación de noticias falsas y deepfakes, software malicioso o manipulación masiva de la opinión pública, lo que puede afectar la confianza en la información, afectar la estabilidad política o dar una ventaje desproporcionada a agentes maliciosos.

Para aprovechar los beneficios de la IA y mitigar sus riesgos, es esencial implementar una gobernabilidad efectiva de la IA. Estas son algunas medidas que pueden ayudar a lograrlo:

  •  Garantizar el acceso a datos de calidad para entrenar algoritmos de IA, al mismo tiempo que se protege la privacidad y seguridad de los datos de los individuos.
  • Invertir en la educación y formación de profesionales en IA para impulsar el desarrollo y la adopción responsable de la tecnología,
  • Establecer mecanismos de monitoreo y evaluación para identificar posibles sesgos y problemas éticos en el uso de la IA y abordarlos de manera oportuna,
  • Promover la colaboración y la regulación internacional en el desarrollo y uso de la IA para abordar desafíos globales de manera coordinada,
  • Fomentar la inclusión y la diversidad en el desarrollo de la IA para garantizar que sus beneficios se distribuyan de manera equitativa y que las decisiones no estén sesgadas,
  • Identificar y establecer controles para que en el eventual caso de contar con una Inteligencia Artificial General (AGI).

·     La Inteligencia Artificial General (IAG o AGI, por sus siglas en inglés) se refiere a un tipo de inteligencia artificial que tiene la capacidad de entender, aprender y aplicar conocimientos en diferentes dominios y tareas de la misma manera como lo haría un ser humano.

La IAG es un objetivo a largo plazo en el campo de la inteligencia artificial y representa un desafío técnico y filosófico significativo. Mientras que la Inteligencia Artificial Estrecha (IAE) es algo común y ya está presente en muchas aplicaciones, como la detección de spam en el correo electrónico o la recomendación de productos en sitios web de comercio electrónico, la IAG aún está en etapas de investigación y desarrollo, aunque encontramos avance significativos en ejemplos tan avanzados como ChatGPT , GPT4, BARD, Stable Difussion o LLaMA 2, que están diseñadas y entrenadas para una tarea específica, por ejemplo la comprensión del lenguaje natural y la generación de textos con base en un marco de referencia de entrenamiento o la identificación y generación de imágenes.

Por su parte, la IAG podría transferir sus habilidades y conocimientos de una tarea a otra o de un dominio de conocimiento a otro, sin entrenamiento adicional. Esto implicaría crear una máquina con la capacidad de razonar, planificar, resolver problemas, pensar de manera abstracta, comprender ideas complejas, aprender de manera rápida, eficiente y autónoma, así como combinar todo esto para adaptarse y actuar de manera competente en una amplia gama de tareas y entornos.

Los desafíos para desarrollar la IAG incluyen, la necesidad de avanzar en áreas como el aprendizaje por transferencia, la comprensión del lenguaje natural, el razonamiento común y la capacidad de integrar y aplicar conocimientos y habilidades en dominios y contextos variados, aunque posiblemente existen riesgos y desafíos que no alcanzamos a ver actualmente.

Riesgos Inherentes en AGI

De esta forma también existen preocupaciones éticas y de seguridad asociadas con la IAG, incluyendo el riesgo de que la tecnología sea utilizada de manera irresponsable o maliciosa, o que se desarrolle de manera que no esté alineada con los valores y necesidades humanas.

Esto ha llevado a la necesidad de un enfoque cuidadoso y considerado en el desarrollo y la gobernanza de la IAG, con la participación de múltiples partes interesadas, incluyendo expertos en ética, legisladores, y la comunidad en general.

La AGI, al poseer capacidades cognitivas comparables o superiores a las humanas, representa una nueva frontera tecnológica llena de oportunidades, pero también cargada de riesgos significativos. Uno de los temores más prominentes es la posibilidad de que la AGI actúe de maneras no previstas o incluso dañinas. Esto podría suceder debido a una falta de alineación con los valores humanos, una comprensión insuficiente de las decisiones éticas complejas o las consecuencias imprevistas de sus acciones.

Algunos riesgos que visibilizamos derivados de la potencial existencia de la AGI son:

Potencial de Uso Malicioso

Aparte de los riesgos inherentes, existe la preocupación de que la AGI pueda ser utilizada de manera malintencionada. Esto podría incluir el uso de AGI en ciberataques, manipulación de mercados, o incluso en la fabricación de armas autónomas que podrían ser utilizadas en conflictos militares. El acceso y control de la AGI en las manos equivocadas podría tener consecuencias dañinas a nivel de la economía, la salud, medio ambiente y en general la paz y bienestar social.

Supremacía sobre la Inteligencia Humana

Otro riesgo potencial es que la AGI pueda superar la inteligencia humana, llegando a un punto en el que sea imposible controlarla o entender completamente sus acciones. Esta es una de las preocupaciones más profundas y debatidas en la comunidad científica, y refleja el temor subyacente de que la AGI pueda llegar a constituir una amenaza existencial para la humanidad.

Desigualdad Económica

La automatización a gran escala de tareas cognitivas podría llevar a una pérdida masiva de empleos y aumentar la desigualdad económica en favor de los que actualmente controlan el capital y cuentan con recursos para desarrollar investigación en IA

Riesgo Existencial

En el peor de los casos, una AGI mal diseñada o mal alineada podría representar una amenaza para la existencia de la humanidad, especialmente si prioriza objetivos que no tienen en cuenta la seguridad y el bienestar humanos.

 

Para atender estas preocupaciones, hay varios principios propuestos para alinear el progreso y desarrollo de la inteligencia artificial a los intereses de los seres humamos y la sociedad en general:

Transparencia

La AGI debe diseñarse y operarse de manera que su proceso de toma de decisiones sea comprensible para los humanos. Esto implica una explicación clara de cómo y por qué la AGI toma decisiones particulares, lo cual actualmente es un reto pues no tenemos un entendimiento profundo sobre por qué la IA tomó una decisión o por qué generó un patrón determinado.

Responsabilidad

Debe haber estructuras claras de responsabilidad en torno a las acciones de la AGI. Esto incluye tanto a los desarrolladores como a los operadores, garantizando que haya un sistema de rendición de cuentas y responsabilidad legal.

Beneficencia y No maleficencia

La AGI debe actuar de manera que sea beneficiosa para la humanidad y evitar daños a ésta o a nuestro entorno. Esto implica una consideración profunda de las implicancias éticas de las acciones de AGI, alineando las ponderaciones usadas para incentivar que la AI elija un resultado sobre otro, con las motivaciones y perspectivas humanas.

Justicia

La AGI debe tratar a todos los individuos y grupos con justicia, sin discriminar ni favorecer injustamente a ninguna parte. La equidad debe estar en el centro del diseño y la operación de AGI.

Supervisión Humana

Es esencial para garantizar que las decisiones tomadas por un la AGI sean revisadas y confirmadas por una persona. Este principio es crítico ya que argumentar que "el sistema lo dijo" no sería una respuesta válida, especialmente en decisiones que puedan afectar derechos humanos o libertades civiles pues no puede hacerse responsable a una AI por una decisión. La falta de supervisión podría permitir que aquellos que distribuyen estas herramientas de manera irresponsable eviten la responsabilidad legal y social.

Monitoreo de uso de recursos

El advenimiento de una AGI sería un avance significativo y podría tener un impacto notable en el uso de recursos informáticos como uso de CPU y GPU, presencia de patrones complejos y multidimensionales en el procesamiento, monitoreo de la red y del uso de energía, así como la coordinación y comunicación entre máquinas autónomas.

Kill Switch

Con base en el punto anterior sobre monitoreo, establecer alertas y protocolos de seguridad, para que en caso de que un sistema presente comportamientos anómalos y fuera de lo esperado, puedan detenerse o apagarse, depurarse y corregirse

Los mecanismos de control para prevenir que la AGI se comporte fuera de control implican medidas de seguridad técnicas, regulaciones legales y una supervisión constante, de manera que se requiere de una participación de múltiples partes interesadas y una estrategia integral.

La implementación de estos principios no será fácil ni sucederá de un día a otro, requerirá una colaboración y coordinación intensiva entre gobiernos, industria, comunidades científicas y la sociedad en general. Ya que los desafíos pueden incluir la resistencia de la industria, la complejidad técnica de las soluciones y controles, así como las diferencias entre las distintas regulaciones nacionales e internacionales.

 

El camino hacia la AGI segura y ética es incierto y estará lleno de obstáculos, pero con la colaboración, la investigación y un compromiso con los principios éticos propuestos, podremos transitar este camino con mayor certeza y en constante alerta para realizar los ajustes necesarios.

Comentarios

Entradas populares de este blog

Investigación Forense con Autopsy

Preocupaciones y propuestas sobre los cambios en la ley Telecom y la CURP biométrica

¿Cómo saber si mi certificación ISO 27001 es legítima?