30 abril, 2024

Unión Europea: proponen Ley para regular la Inteligencia Artificial

Por Fernando Castro.

Pro Secretario Gremial de la UTPBA.

El pasado 13 de marzo el Parlamento Europeo aprobó el primer marco regulatorio para los sistemas de Inteligencia Artificial. Con 523 votos a favor, 46 en contra y 59 abstenciones, se intentará que esta normativa entre en vigor a fines de mayo. Sólo faltaría la traducción del texto a todos los idiomas oficiales de UE, y que los Estados miembros reafirmen individualmente.

Esta ratificación no es apenas un simple trámite. Los distintos Estados pueden establecer sus propios límites y recortes en las obligaciones que propone el tratado. Se espera que  para 2026 el reglamento funcione en términos concretos. Todo esto será aplicado y controlado por la Oficina Europea de Inteligencia Artificial.

Principalmente la ley divide los sistemas en cinco riesgos: “Inaceptable”, “Alto”, “Específico para la transparencia”, “Sistémico” y “Mínimo”.

Riesgo inaceptable: significa que las IA buscan la manipulación del comportamiento humano, como, por ejemplo, los Social Scoring (puntuación social), donde se observa la fiabilidadde un individuo basado en la recopilación de datos como su orientación sexual, gustos, placeres, salud, preferencias de comportamiento, etc.

Tampoco estará permitida la categorización biométrica que puede llegar a utilizarse para suponer orientación sexual, creencias políticas, etc. Así mismo, estarán prohibidos los sistemas de reconocimiento de emociones en los lugares de trabajo y centros educativos.

Riesgo alto: es el punto más polémicos, la ley destaca que los sistemas de vigilancia biométrica en tiempo realpodrán ser utilizados por “las fuerzas de seguridad y el orden”, abriendo así la posibilidad a que distintas empresas trabajen para los Estados.

Riesgo específico para la transparencia: direccionado a los peligros de manipulación que se puedan generar con deepfake, bots de apariencia real o con aplicaciones de charla o dialogo. La normativa obliga a dejar claramente expresado que el usuario está frente a una creación artificial, o que se relaciona con una máquina.

Riesgo sistémico: con este títulose busca evitar ciberataques o de propagación de noticias falsas a gran escala, teniendo en cuenta que una herramienta de inteligencia artificial puede estar sistemáticamente, sin ningún tipo de freno o descanso, tratando de cumplir su objetivo.

Riesgo mínimo: dentro de esta categoría podemos encontrar a aquellos proveedores de servicios de IA que adhieran a los requisitos éticos y códigos de conducta de la UE, pero que no lo cumplan objetivamente.

Paradójicamente, la mayoría de los parlamentarios europeos expresó en el debate que las grandes empresas – pioneras en el desarrollo de Inteligencia Artificial- integrarían este último punto.

Por ejemplo, OpenAI con ChatGPT-4, Google con Gemini y Microsoft con Copilot son grandes monopolios informáticos y tecnológicos, en algunos casos con economías más importantes que muchos Estados. En definitiva ¿alguien podrá ponerle el cascabel al gato?

Entre gol y gol, las copas

Por Tubal Páez Hernández.

Periodista cubano. Presidente de Honor de la UPEC) y de la FELAP.
La Copa América y la Eurocopa llegan a su fin y merecen una reflexión, aunque esta sea un granito de arena en un oleaje que ha movido multitudes en el Planeta Fútbol.

Dolor

Falleció el compañero José Dos Santos, amigo de la UTPBA, de la FELAP, periodista cubano, dirigente de primera línea de la Unión de Periodistas de Cuba, UPEC, en los años difíciles del período especial.

Profundo pesar en la Felap por la muerte de José Dos Santos

La conducción de la Federación Latinoamericana de Periodistas (Felap) expresó su “profundo pesar” por el fallecimiento hoy en La Habana de José Dos Santos.