Creo que todos, o casi todos, nos cuestionamos si la inteligencia artificial
(IA) es una decisión acertada que está tomando la humanidad, ya que
naturalmente nos hace dudar si debemos depositar nuestra confianza en
esta nueva tecnología.
La ley de Moore, que afirma que la velocidad de los ordenadores se duplica
cada dos años, ha quedado obsoleta, ya que el crecimiento en el
entrenamiento de la inteligencia artificial ha superado esta ley en más de
cien millones de veces. Esto ha preocupado a expertos como Elon Musk y
Steve Wozniak, quienes han firmado una carta abierta instando a todos los
laboratorios de IA a pausar inmediatamente durante al menos seis meses el entrenamiento de los sistemas de IA.
Nick Bostrom, profesor de Éticas Aplicadas y director del Instituto para el
Futuro de la Humanidad, asegura que la IA se convertirá en una
superinteligencia en las próximas décadas o en el próximo siglo. Por lo
tanto, la humanidad se enfrenta a uno de sus mayores desafíos, ya que la tecnología no tiene ética, pero la humanidad depende de ella, dijo Rebeca
Yanke, periodista del diario El Mundo.
Desde 2017, la Comisión Europea ha afirmado que a largo plazo la
inteligencia artificial superará la capacidad intelectual, por lo que ha
propuesto un conjunto de acciones y normas para impulsarla y garantizar su
fiabilidad. La legislación propuesta, conocida como la Ley de Inteligencia
Artificial, se centra en fortalecer la calidad, transparencia, responsabilidad,
ética y supervisión humana en esta nueva industria.
Dado que la IA es un territorio nuevo en rápido crecimiento y poco
explorado, existen muchos riesgos en materia de autoría, propiedad
intelectual, privacidad y protección de datos, incluso amenazando a los
ciudadanos.
Con el fin de generar confianza hacia la IA, la Comisión Europea ha
clasificado diferentes propuestas en función de su riesgo, con el objetivo de
fortalecer su transparencia, seguridad y el control humano. Se dividen en
cuatro tipos de riesgo: riesgo mínimo, donde se clasifican la mayoría de las
IA que no representan un alto riesgo para la seguridad de los ciudadanos,
como filtrar correos no deseados; riesgo reducido, donde los sistemas de
IA tienen obligaciones mínimas de transparencia, como es el caso de
ChatGPT de OpenAI, que se ha vuelto muy popular; riesgo alto, que
abarca diferentes áreas, como educación, formación profesional, servicios
públicos y privados esenciales, gestión de la migración, administración de
la justicia, entre otros, que son evaluados cuidadosamente antes de ser
introducidos en el mercado; y, por último, la clasificación inaceptable, que
se considera una amenaza clara para la ciudadanía de la Unión Europea.
El plan más actualizado en la UE es el Plan Coordinado sobre la IA, creado
inicialmente en 2018. Tiene cuatro objetivos principales, que son establecer
las condiciones propicias para el desarrollo y la adopción de la IA. Para
lograrlo, se propone crear una asociación privada sobre IA, datos y
robótica, centros de innovación digital y plataformas sostenibles que
faciliten el acceso e intercambio de conocimientos especializados e
información para fomentar la inclusión y la diversidad en la región.
La UE también garantizará un Comité Europeo de Inteligencia Artificial;,
donde cada estado miembro designará una autoridad encargada de
supervisar e informar si un sistema de IA presenta un alto riesgo. Se
mantendrá una vigilancia reforzada con la posibilidad de recurrir a medidas
judiciales, si fuera necesario.
En mi opinión, la IA llegó para quedarse, y habrá un momento en el que no
recordemos cómo era vivir sin ella. Lo importante es mantener la
responsabilidad, la seguridad, el control, y el fortalecimiento en la calidad
de los datos para garantizar la transparencia en todo momento.
Patricia Quezada Jiménez: estudiante del Prácticum del Master en
Sistemas de Información Digital en la Universidad de Salamanca.