José Daniel Sánchez Quiñones
2/12/2023
Para regular la Inteligencia Artificial no es necesario reinventar el derecho. Ante esta tecnología con usos y riesgos variados, la clave está en aplicar los principios con los que nos hemos regulado a estas nuevas realidades. La responsabilidad civil resulta muy adecuada para este ejercicio porque su regulación, tanto para las relaciones negociales o fuera de ellas, presenta dos funciones principales: la prevención del daño, en aplicación de los principios de la justicia distributiva, y la compensación del daño, en el marco de los principios de la justicia correctiva.
Para dar un poco de contexto a estos conceptos un poco enredados: al pensar en la prevención del daño es necesario preguntarse ¿Qué problema se quiere resolver y cuáles son los posibles daños que ese problema puede generar? Así, una sociedad debería procurar no solo la distribución eficiente y ética de los recursos, sino también de las cargas, como puede ser una obligación diferenciada entre compañías para evitar un daño físico, económico, moral u otros al momento de comercializar sus productos o servicios. Este principio derivó en varias exigencias especificas por actividad y sector, como por ejemplo los requisitos de sanidad, los estándares de calidad, entre otros.
Por otra parte, la función compensatoria del daño tiene que ver con la variedad de remedios que ofrece el ordenamiento para reparar un daño causado. En otras palabras, la justicia correctiva quiere enmendar un daño o incumplimiento en procura de volver las cosas al estado anterior a dicho menoscabo. Dentro de los remedios se encuentra el pago de un perjuicio o el uso de seguros.
En últimas, los principios del derecho a los que me refiero deben ser aplicados a las nuevas realidades de la Inteligencia Artificial son: (1) no causar daño a nadie (que viene desde Roma denominado Neminem laedere) y (2) el que ha cometido un daño a otro, está obligado a la indemnización (como aparece en el artículo 2341 del Código Civil). Resulta muy interesante la variedad de enfoques a nivel mundial en cuanto a la determinación de riesgos, incentivos económicos, herramientas de cumplimiento y otras regulaciones que repercuten en la interpretación de estos dos principios al regular la Inteligencia Artificial.
La autora Anu Bradford nos explica en el libro Digital Empires, que existe una verdadera guerra internacional entre tres visiones para regular las tecnologías digitales. Una la representa Estados Unidos bajo su óptica de libre mercado, competencia e incentivos para que las empresas crezcan e innoven; otra, es la visión europea que se enfoca en la protección y garantía de los derechos humanos como la libertad de expresión, la protección de datos, la privacidad, entre otros; y, finalmente, la visión de China que representa el control estatal, esto es, una visión socialista en un contexto de mercado que sitúa al Estado como director en el uso, desarrollo e implementación de soluciones digitales. La autora explica que estas visiones no solo aplican en cada uno de estos países o regiones, sino que son activamente exportadas como modelos regulatorios a otros países, configurando así el nuevo ordenamiento multipolar.
Ahora bien, en Colombia se está tomando primordialmente como ejemplo el modelo regulatorio de la Unión Europea. A la fecha existen cuatro proyectos de ley que pretenden regular la Inteligencia Artificial en el país:
- Proyecto de Ley 059/23 que busca regular los lineamientos de política pública para el desarrollo, uso e implementación de la Inteligencia Artificial. Este PL pasó el primer debate y se encuentra pendiente de rendir ponencia para el segundo debate al interior del Senado de la República.
- Proyecto de Ley 130 de 2023 por la cual se armoniza la Inteligencia Artificial con el derecho al trabajo. Actualmente, este PL se encuentra pendiente de rendir ponencia en primer debate en el Senado de la República.
- Proyecto de Ley 91 de 2023 que busca establecer el deber de información para el uso responsable de la Inteligencia Artificial en Colombia. Actualmente, este PL se encuentra pendiente de rendir ponencia en primer debate en el Senado de la República.
- Proyecto de Ley Estatutaria 200 de 2023 que aspira ajustar a estándares de respeto y garantía de los derechos humanos a la inteligencia artificial, regular y promover su desarrollo y establecer límites frente a su uso, implementación y evaluación por parte de personas naturales y jurídicas. Este PL se encuentra para ponencia en primer debate en la Comisión Primera Constitucional de la Cámara de Representantes.
No siendo el espacio para abordar el contenido de cada Proyecto de Ley, en todo caso es importante estudiar las implicaciones y limitaciones de adoptar el modelo europeo en cuanto a la aplicación de los principios de prevención y compensación del daño. En el viejo continente se encuentra en trámite el denominado AI Act, que es una regulación para la Inteligencia Artificial que sería de aplicación directa para todos los Estados miembros de la Unión Europea – a diferencia de las Directivas que requieren el trámite de una ley nacional que la adopte.
El AI Act ha sido objeto de reconocimiento internacional por la acertada clasificación de los riesgos de los distintos tipos de uso que tiene esta tecnología y sus subsecuentes limitaciones y obligaciones. A grandes rasgos, existen 4 tipos de riesgos según este Reglamento:
- Riesgo prohibido, como la manipulación de las opiniones y decisiones de las personas; la explotación de los niños, personas con discapacidad mental y personas vulnerables y que resulte en algún daño físico o psicológico; la clasificación social con base en la conducta de las personas; y la identificación en tiempo real de datos biométricos, con algunas excepciones. El uso de estos sistemas está prohibido de plano.
- Riesgo alto, que incluye el uso de Inteligencia Artificial para la identificación biométrica, el manejo de infraestructura crítica, la educación, la contratación laboral, el acceso a servicios públicos y privados esenciales, la aplicación de la ley, los servicios migratorios, la administración de justicia y de la democracia. Al ser considerados de alto riesgo, estos deben cumplir, en resumen, dos grandes obligaciones: una evaluación de conformidad previo a entrar al mercado, lo que implicaría la adopción de estándares, la adopción de políticas de gobernanza de datos, ética y de privacidad, requisitos de ciberseguridad, etc. También, deberá haber un plan periódico de seguimiento post-comercialización para asegurar el cumplimiento.
- Riesgo bajo, como la Inteligencia Artificial que interactúa con humanos, detecta las emociones, determina categorías con base a información biométrica y genera contenido manipulador. Las empresas que usan, desarrollan y comercializan estas tecnologías deben cumplir algunas obligaciones de transparencia con el público, como poner marcas de agua a los videos Deep fake.
- Riesgo mínimo, que son sistemas de Inteligencia Artificial que, no estando en las causales anteriores, no están restringidos ni derivan en obligaciones específicas.
Aprendiendo del descrito proceso regulatorio, es recomendable para el legislador colombiano el desarrollo de una regulación neutra; es decir, que no especifique al extremo el tipo de tecnologías para evitar desactualizarse pronto.
Luego de ello, sería loable construir una regulación también basada en principios y en la clasificación de riesgos y obligaciones de conformidad con la variedad de usos que potencialmente tengan. Ahora bien, nunca ha sido bueno importar regulaciones sin adecuación contextual, por lo que el legislador colombiano debe estudiar con mucha seriedad en donde debe enfocar la intención reguladora.
Para reforzar la función preventiva de la responsabilidad civil, dicha intención debe estar situada únicamente en los riesgos más altos y representativos en el contexto colombiano. Esto dependerá de la asignación de valores dentro de nuestra sociedad a las actividades que creemos dañosas. Por ejemplo, en Europa es de extrema relevancia la privacidad. En Colombia, tomando como ejemplo el PL 130 de 2023, el derecho al trabajo es de cardinal importancia. Ellos viven una realidad y nosotros otra. Sufrimos nuestras propias versiones de problemas como la desinformación, la discriminación y los ataques a la seguridad informática.
La anterior recomendación tiene un objetivo práctico: evitar la sobrerregulación. Las leyes no son el único mecanismo para regular una situación, pero sí son el camino más costoso en términos políticos y temporales. Por tanto, debe abrirse campo a la co-regulación entre el Estado y las empresas para que estas últimas, conociendo en detalle sus tecnologías y riesgos, adopten políticas de gobernanza dirigidas a prevenir el daño. Ello incluiría políticas de privacidad, adopción de estándares técnicos, guías de uso correcto para el usuario y adopción de principios para el uso ético de la IA.
Por ejemplo, Google acogió autónomamente unos principios para el desarrollo ético de sus sistemas de IA, como son:
- Ser socialmente beneficiosas.
- Evitar crear o reforzar prejuicios injustos.
- Construirse y probarse para garantizar la seguridad.
- Rendir cuentas a las personas.
- Incorporar principios de diseño de privacidad.
- Mantener altos niveles de excelencia científica.
- Estar disponibles para usos acordes con estos principios.
Entonces se procura evitar la sobrerregulación por dos razones: se dificulta la aplicación de la ley (enforcement) por parte de las autoridades y se obstaculiza la innovación porque las empresas no tienen incentivos para operar en dicha jurisdicción.
Estas son las dos grandes críticas al modelo regulatorio de la Unión Europea. En consecuencia, las visiones de Estados Unidos y China no deben ser descartadas de plano porque estas tienen disposiciones muy interesantes en cuanto a la distribución de cargas y beneficios económicos. Por ejemplo, en Estados Unidos existen leyes de insolvencia flexibles que incentivan las inversiones de riesgo en las empresas de tecnología, uno de los caminos para asegurar su crecimiento.
Por otro lado, la regulación de la Inteligencia Artificial desde la función compensatoria del daño es más preocupante porque no existe claridad a nivel mundial sobre los remedios en caso de un daño por estos sistemas. Como es sabido, una de las características inherentes a estas tecnologías es la autonomía en sus decisiones y acciones. De tal forma, a medida que progresa su desarrollo, más autónomas se vuelven. Esto dificulta verificar el vínculo entre daño y el sujeto responsable (nexo causal) porque los programadores, productores y todos los actores vinculados al desarrollo de la Inteligencia Artificial pueden argumentar que no estuvieron detrás de las decisiones tomadas por estos sistemas, por tanto, no produjeron un daño por su propia acción u omisión.
Se ha acuñado el famoso término de cajas negras para describir la circunstancia en donde los ingenieros saben qué está aprendiendo esta tecnología, pero no cómo toma las decisiones. De tal forma, la teoría del riesgo en la responsabilidad civil, que es aplicable a actividades peligrosas, no resultaría tan adecuada porque en ella se prescinde de la prueba de la culpa pero se configura la responsabilidad civil al demostrar el nexo causal entre daño y sujeto.
Entonces, las dos soluciones en debate a estos problemas son: el reconocimiento de una personería jurídica a los sistemas de Inteligencia Artificial y el uso de seguros obligatorios para las empresas que desarrollan y comercializan esta tecnología. La primera aún está lejos de tomarse con seriedad debido a la incertidumbre en torno al manejo de su patrimonio y a la capacidad de asumir derechos y obligaciones. Sin embargo, no debemos descartarla a medida que entendemos nuestra nueva realidad.
Nos queda entonces el seguro como una opción viable, sobre todo si se analiza desde el derecho económico porque resulta costo/eficiente pagar un seguro que pretender construir sistemas completamente libres de riesgo. Esto reduce los costos y repercute positivamente en los incentivos para la innovación.
El problema está en que depender absolutamente del derecho de seguro es riesgoso porque implica prescindir de los mecanismos para la función preventiva del daño. Las empresas emprenderían su actividad riesgosa con la certeza de un posible daño y con la tranquilidad de que un seguro respondería en dicho caso. Deben existir mecanismos disuasivos para que las empresas de Inteligencia Artificial actúen con diligencia para evadir dañar a la sociedad.
En mi opinión, los esfuerzos para regular la Inteligencia Artificial están excesivamente inclinados a la prevención del daño, pero no debemos dejar pasar por alto la regulación en torno a los remedios compensatorios del daño. ¿Cómo podríamos intentar volver al estado de cosas anterior luego de un daño ocasionado por la Inteligencia Artificial? ¿Basta con la indemnización monetaria directa o a través de un seguro? Los principios legales están a nuestra disposición para pensar creativamente cómo aplicarlos a nuestra nueva realidad.
***