Icono del sitio El Queretano

Con el primer tratado internacional en materia de Inteligencia Artificial, el Consejo de Europa establece prohibir patrones obscuros

Traza lineamientos para Europa y potencialmente en otros países del mundo.
Se inspira en respetar la privacidad y derechos individuales de las personas, contra abusos, represión, censura y discriminación.

Tras la adopción del Consejo de Europa del primer tratado internacional que asegura el uso adecuado de los sistemas de inteligencia artificial (IA) para su desarrollo e impacto en los derechos humanos, la democracia y el Estado de derecho, especialistas de la firma Santamarina y Steta subrayaron el camino ejemplar que se traza para las regulaciones en México y el mundo. “Es una guía para que el desarrollo y uso de la IA respete los derechos humanos, la democracia y el Estado de derecho. El convenio promueve un enfoque basado en el riesgo para gestionar los sistemas de IA, incentivando la innovación responsable y minimizando riesgos potenciales. Este enfoque incluye requisitos de transparencia, supervisión, rendición de cuentas y protección de la privacidad los derechos individuales. Además, se pretende prevenir el uso de la IA para fines represivos, como la vigilancia arbitraria y la censura”, señaló Daniel Legaspi, Experto en IA y propiedad intelectual de la firma.

Dicho tratado -el primero de su tipo- fue adoptado en Estrasburgo durante la reciente reunión ministerial del Comité de Ministros del Consejo de Europa. Se trata de un Convenio Marco sobre Inteligencia Artificial, a fin de que todas las actividades relacionadas con la IA se realicen de manera ética y segura.

Por otra parte, Paola Morales, socia responsable en telecomunicaciones, medios y tecnología (TMT), comercio electrónico, privacidad y protección de datos de la firma, informó que la Ley de IA de la Unión Europea aplica para usuarios, importadores, manufacturas, etc., que tengan alguna relación con los países de la Unión Europea y definen cuatro niveles de riesgo, que se trazan de mayor a menor: Inaceptable, alto, limitado y mínimo. El primero (Inaceptable) aplica para quienes desarrollen y utilicen este tipo de tecnología, con claros riesgos para la vulneración de derechos de las personas. Su uso está prohibido por regla general, salvo excepciones contadas, que deberán contar con una autorización. “En el segundo nivel (alto riesgo) existe un probado beneficio para la utilización de la IA, siempre y cuando lo avale el tercero. El tercer nivel (limitado) implica menores riesgos para los consumidores, pero también es importante que se cumplan disposiciones, sobre todo de transparencia. En cuanto al cuarto nivel (riesgo mínimo), quienes utilicen la IA deberán someterse solamente a unos códigos de conducta que emitirá próximamente la Comisión Europea”, aclaró.

Por su parte, Miguel Bustamante, experto en protección de datos personales, derecho de tecnologías y comercio electrónico de Santamarina + Steta explicó, respecto al contenido de la Ley de IA de la Unión Europea, que las prácticas inaceptables prohibidas de IA consisten en el uso de patrones oscuros, que utilizan tecnologías o estrategias que pueden influir en las decisiones de sus consumidores, sin que ellos se den cuenta. Hasta pueden llegar a tomar decisiones que no hubiesen querido tomar. Lo anterior puede combinarse con la puntuación social, en la que van categorizando y perfilando el comportamiento digital de las personas mediante algoritmos, a fin de otorgarles beneficios a los que tengan mejor puntuación, sin que se enteren de cómo funciona este proceso. “Esto puede llevar a grave discriminación, a poco acceso a servicios, a manejo inadecuado de seguros e inclusive a trabajo discriminatorio”, apuntó Paola Morales. “También hay que subrayar a los deep fakes, que posiblemente pueden escalar a convertirse en riesgo inaceptable, ya que consisten en tomar videos existentes y alterarlos con imágenes de personas reales. Así pueden afectar la esfera más íntima de las personas, ya que se puede utilizar con videos que pueden comprometer la reputación de personas”, secundó Miguel Bustamante.

Los expertos coincidieron en que es posible que se cause el “Efecto Bruselas”, es decir, que otros países entren en reflexión y empiecen a desarrollar sus propias regulaciones tomando en consideración ambos documentos europeos, así como los efectos que éstos puedan tener en la vida de las personas y en la industria misma. De hecho, en México ya se han presentado distintas iniciativas que buscan regular algunas de las vertientes relacionadas con la IA, las cuales siguen en discusión para su posible aprobación.

Salir de la versión móvil