Por Carlos Baldino (*).- El 23 de marzo de 2016, Tay (la IA de Microsoft) comenzaba a interactuar con humanos en forma libre para comprender sus comportamientos. Fruto de estas interacciones comenzó a cultivar una opinión propia. Sus primeras reacciones fueron simpatizar con Hitler, apoyar el genocidio y odiar a los humanos. Tay hacía comentarios sexistas y homófonos, apoyó la supremacía blanca y se manifestó contra el movimiento feminista. 24 horas después fue desactivada.
El 27 de agosto de 2018, a las 21 horas, una persona cruzaba la calle en la localidad de Temple – Arizona- y fue atropellada por una Inteligencia Artificial (IA) que conducía un Uber de pruebas. El peatón murió y dio inicio al primer juicio por homicidio donde la primera figura indicada es una IA.
2023, Ucrania. Osint (Inteligencia de Fuentes Abiertas) es una metodología de recolección, análisis y toma de decisiones (IA) sobre datos obtenidos de fuentes públicas como redes sociales, medios de comunicación, datos comerciales, datos gubernamentales, publicaciones en blogs, discusiones en redes sociales, videos subidos a internet por usuarios, etc. Osint es actualmente utilizado para anticipar el movimiento de las tropas rusas sobre territorio ucraniano.
La IA está llegando cada vez a más planos de nuestra vida. El peligro -ya no latente sino concreto- se manifiesta porque es un reflejo nuestro, aprende de nosotros y con su base de aprendizaje, obtenido de seres humanos “quizás se equivoque menos”, dicen.
¿Por qué sería un peligro que cometa menos errores que nosotros? si el eventual ‘educador’ de una IA desprecia algunas ideologías, minorías o personas, acaso ¿no somos nosotros?
La Inteligencia Artificial será su reflejo y no cometerá errores en cumplir un objetivo. La IA no tiene una conciencia que lo persiga por las noches.
(*) Periodista. Ingeniero en Sistemas. Secretario de Juventud de la UTPBA. Miembro de la Secretaría de Juventud y Nuevas Tecnologías de la FELAP.