__wf_reservad_hereta

Los desafíos legales de la IA

DV. Opinión.

Durante años, la inteligencia artificial (IA) fue terreno de la ciencia ficción: robots que pensaban por sí mismos, máquinas que tomaban el control o sociedades vigiladas al estilo 1984, donde un “Gran Hermano” lo observa todo. Hoy esa ficción se ha vuelto realidad. La IA, en un periodo de tiempo relativamente corto, está presente en nuestras vidas cotidianas de forma recurrente y en aspectos que incluso nosotros desconocemos: asistentes virtuales, redes sociales, hogares inteligentes (domótica), chatbots, navegación inteligente, conducción autónoma, procesos de selección, análisis de riesgo crediticio y un largo etc. en el que participa en decisiones que pueden cambiar nuestro destino. Y claro, cuando la tecnología empieza a tener poder real, llega la gran pregunta: ¿quién la controla?

El problema no es solo técnico, sino legal y ético. Por primera vez en la historia, nos enfrentamos a sistemas que aprenden solos, evolucionan y toman decisiones sin que nadie las programe línea por línea. ¿Dónde está el equilibrio entre la protección de derechos y no frenar la innovación?

Europa, como de costumbre, ha decidido ir por la vía normativa, aprobando el Reglamento de Inteligencia Artificial en 2024, que entró en vigor el 1 de agosto de ese mismo año. Este texto convierte a la UE en la primera región del mundo con una ley general sobre IA. Su lógica es sencilla: clasifica los sistemas según el riesgo. Los de bajo riesgo (como asistentes de voz o filtros de spam) tienen pocas obligaciones, pero los de alto riesgo, como los que afectan al empleo, la educación o la seguridad pública, deben cumplir requisitos estrictos de transparencia, trazabilidad y supervisión humana.

Existen campos de aplicación polémicos, como el uso de la IA para la seguridad ciudadana, en el que los algoritmos predicen dónde es más probable que se cometa un delito o reconocen rostros en cámaras de vigilancia. Suena útil, sobre todo en un momento en el que la seguridad ciudadana es una de las preocupaciones más importantes de la ciudadanía, pero el riesgo es evidente: si esos sistemas se entrenan con datos históricos sesgados, el algoritmo puede perpetuar los mismos prejuicios que debía eliminar. En 2002, la película Minority Report de Steven Spielberg exponía los riesgos y consecuencias de un uso desproporcionado de una especie de IA predictiva que predecía la comisión de delitos.

El Reglamento Europeo sobre Inteligencia Artificial intenta reducir estos peligros: exige auditorías, documentación y la posibilidad de que siempre haya supervisión humana. Pero ¿cómo será la aplicación práctica de esas reglas? Parece difícil garantizar que una empresa tecnológica con sede en un país no perteneciente a la UE vaya a cumplir con esos estándares.

Mientras tanto, Estados Unidos, país de origen de la gran mayoría de empresas tecnológicas que operan con IA, ha optado por un enfoque más laxo y descentralizado. No existe allí una ley federal equivalente al Reglamento Europeo. En su lugar, el gobierno ha emitido principios y guías, como la AI Bill of Rights o la AI Risk Management Framework, que orientan a las empresas para gestionar riesgos, pero de forma voluntaria.

La diferencia entre ambos ordenamientos es evidente: mientras Europa apuesta por prevenir el daño antes de que ocurra, Estados Unidos confía más en la autorregulación y la corrección de abusos a posteriori, esto es, a través de demandas y responsabilidad civil frente a los responsables. El modelo europeo ofrece más seguridad jurídica y protección para el ciudadano. El modelo estadounidense favorece la agilidad y la innovación.

Otro ejemplo muy gráfico que plantea dilemas reales es el de la conducción autónoma. Pensemos en un coche que circula sin conductor humano y debe decidir, en una milésima de segundo, entre frenar bruscamente —estrellándose con otro vehículo— o desviarse y atropellar a un peatón. Si la maniobra termina mal, ¿quién es responsable? ¿El fabricante, el programador, el propietario del coche o la empresa que entrenó el modelo de IA?

Lo cierto es que a veces ni los propios ingenieros pueden explicar por qué un algoritmo eligió una opción sobre otra. Ese desconocimiento, denominado ya como el “efecto caja negra” convierte la idea de “responsabilidad” en un rompecabezas jurídico.

El reto se complica aún más por la velocidad de los avances tecnológicos. La IA avanza en meses; las leyes, en años. Cada novedad pone a prueba las normas antes incluso de que entren en vigor. Y mientras las normas son aplicables en su propia jurisdicción, el mercado es global. Un sistema desarrollado en Silicon Valley puede aplicarse y utilizarse mañana en Nueva York, Madrid o Tokio, con reglas distintas.

Nos encontramos ante una realidad desconocida, en la que es necesario regular el uso de estas tecnologías, fijando unos estándares mínimos de transparencia, trazabilidad, responsabilidad y derechos de los ciudadanos frente a la automatización. No se trata de temer a la tecnología ni de ponerle freno al progreso, sino de ponerlas al servicio de las necesidades de los ciudadanos.

Descargar archivo
Descargar archivo 2
Visite nuestra página de Executive Interim Management.
Contenido relacionado que podría interesarte
Compartir artículo

Apúntate a nuestro blog de Noticias y Conocimiento

Te has suscrito correctamente.
Algo ha fallado. Por favor, inténtelo de nuevo pasados unos minutos.
Fent clic a”Acceptar totes les cookies“, accepteu l'emmagatzematge de cookies al vostre dispositiu per millorar la navegació del lloc, analitzar l'ús del lloc i ajudar en els nostres esforços de màrqueting. Consulta el nostre Política de privacitat per a més informació.