Inteligencia Artificial: ética, responsabilidad y legalidad.
A lo largo de la historia, el mundo jurídico siempre logró encontrar los mecanismos para dar cobertura legal al desarrollo de nuevos negocios apoyados en las innovaciones tecnológicas: desde la imprenta y la máquina de vapor hasta la radio, la televisión e internet o las telecomunicaciones móviles. El proceso fue siempre más o menos similar: primero se identificó el fenómeno disruptivo, luego se analizó su impacto económico y social, y más adelante se ofreció una respuesta dentro del marco normativo existente o se sugirió un nuevo encuadre. La inteligencia artificial (IA) incorpora una tensión inédita: hasta su aparición, todas las tecnologías previas tenían, en última instancia, conductas atribuibles con mayor o menor inmediatez a seres humanos. El diseño de los marcos normativos fue, por tanto, antropocéntrico. Ahora, por primera vez, estamos ante algo que actúa como un humano, pero no lo es.

Sumado a esto, existe otro enorme desafío para el desarrollo de marcos normativos alrededor de IA: la velocidad. No hay tiempo de “sentarse a pensar” marcos normativos: el mundo del derecho debe reaccionar rápidamente a la hora de evaluar riesgos, entender modelos de negocios y definir los encuadres más apropiados.

¿Te preocupan los aspectos legales que puedan influir en los proyectos de IA de tu organización? En Practia contamos con un equipo de expertos disponible para ayudarte click aquí. Y también te ofrecemos mucha más información en este mismo artículo.

Ya está a bordo

 

La IA en las empresas no es una novedad. Por ejemplo, la IA generativa se utiliza cada vez más para el desarrollo de software. En este plano, la evolución (y la revolución) que representó el código abierto simplificó las cuestiones legales de cara al futuro.

En efecto, este modelo por el cual todos aquellos que contribuyen al repositorio de la licencia que se considere, se abstienen de aplicar de manera estricta los modelos de propiedad intelectual para ganar en velocidad de producción, y en opciones de monetización parece haber ayudado a resolver el problema: la IA sólo agrega una capa que parece ir en el mismo sentido.

Otro caso de uso muy extendido en las organizaciones es el de los chatbots. En estos casos, aparecen bordes rígidos en las legislaciones vinculadas a los Derechos del Consumidor, vigentes en la mayoría de los países del mundo y apoyadas en la ICPEN (Red Internacional de Aplicación de la Ley de Protección al Consumidor), respecto de que las personas deben recibir información clara, transparente, comprensible y en su propio lenguaje.

Un bot que informa de manera indiscriminada sobre un producto o un servicio, que ofrece datos incompletos o incorrectos o que viola de alguna manera la privacidad de datos, genera una responsabilidad para la empresa que lo puso en línea.

La puesta en marcha del bot es apenas el primer paso: se deben garantizar los mecanismos de que la información estará siempre actualizada y que el eventual árbol de respuestas a través del cual el usuario podría navegar estará siempre ajustado a las normativas vigentes.

¿Sabías que los chatbots son capaces de resolver el 70% de la conversación con un humano? Se trata de un mercado que llegará a los 239,2 millones de dólares para 2025. Si estás por iniciar un proyecto de este tipo, podes consultar con un experto aquí.

La intelectualidad de la inteligencia artificial

 

Algunas industrias en particular necesitan repensar la reorganización de los roles laborales. Parte de la huelga de actores de Hollywood, por ejemplo, está vinculada con la incorporación de IA. Algunas redacciones periodísticas también utilizan la tecnología para preparar determinados informes o algunos tipos de noticias.

Estos cambios deberían verse representados en leyes laborales adaptadas, estructuras renovadas de las convenciones colectivas de trabajo y en nuevas formas de contratación.

Estos mismos segmentos culturales, creativos y de entretenimiento se enfrentan a otro dilema legal: la propiedad intelectual. ¿A quién pertenece una canción, una obra de arte, un texto o un video creado íntegramente por IA?

Técnicamente, el concepto de autor desaparece. La oficina de copyright de Estados Unidos ratificó que para que exista la autoría debe haber una contribución preponderante de un ser humano. El caso de los rechazos al artista plástico Ryan Abbot, por ejemplo, dieron la vuelta al mundo.

Otro episodio resonante fue el de DABUS, un modelo virtual que creó una pintura. Su “coautor humano” e inventor del bot, Stephen Taler, reclamó que el agente de IA fuera también reconocido como autor de la obra. Su reclamo chocó con tribunales de Estados Unidos, Australia y probablemente también Reino Unido.

El valor de los contratos

Dicen que no es verdad que haya situaciones que no están reguladas: simplemente, se trata de encontrar la ley que tenga la vocación de ser aplicada e interpretada para cada caso. A veces, se resuelve de manera simple. Otras veces, resulta más dificultoso.

Hoy existe una herramienta fundamental para ordenar todas estas novedades, delimitar los grises de los roles y las responsabilidades e impartir cierta “justicia”: los contratos. Son el instrumento clave para determinar remuneraciones, titularidad de derechos, obligaciones y la explotación económica del negocio generado.

¿El límite? Cuando aparecen temas de orden público, es decir, que la ley no pueda ser desplazada por la voluntad de las partes. Un claro ejemplo de esto es la legislación laboral de cada país.

Algunos bocetos para tener en cuenta

El mundo comienza a observar con atención la IA y a definir proyectos normativos concretos. La Unión Europea, por ejemplo, evalúa las actividades según su nivel de riesgo.

Así, la manipulación cognitiva (como juguetes activados por voz que puedan generar comportamientos peligrosos en los niños) o la puntuación social (como uno hace con su conductor de Uber) entran en la categoría “inaceptable”.

Al mismo tiempo, cuestiones como identificación biométrica, educación, servicios privados esenciales, gestión de migraciones y asilos o asistencia en interpretación jurídica y aplicación de la ley, entre otros vinculados a derechos humanos básicos, se consideran de riesgo “alto”.

En las primeras líneas de guía, se recomienda advertir al usuario que está tratando con un operador no humano y que las respuestas generadas son para que la persona en definitiva tome la decisión: un regreso a las fuentes antropocéntricas.

En la región, Perú lanzó en julio una ley para promover el uso de la IA, mientras que, tanto Uruguay como México, avanzan también en normativas específicas en todos los casos, centradas en aspectos éticos y responsables en línea con lo indicado por UNICEF. Chile, por su parte, presentó un proyecto de ley alineado con el de la Unión Europea, y Argentina se muestra rezagada con apenas algunas recomendaciones abstractas y no vinculantes en el tema.

En conclusión, el uso responsable, ético y legal de la IA debe ser una prioridad para cualquier empresa que intente obtener valor de esta nueva tecnología. Desde un prompt bien diseñado hasta un output correcto, en este nuevo escenario que cambia a toda velocidad es esencial mantenerse dentro de los márgenes (por el momento también flexibles) de la ley.

¿Analizan en tu organización la importancia de los aspectos legales vinculados a los proyectos de IA? Tenemos especialistas que pueden ayudarte click aquí

Escríbenos: contacto@practia.global y conoce más sobre nosotros en nuestras redes LinkedIn y Twitter.