¿Qué pasa cuando la IA se equivoca?
Jueves, 10 Agosto 2023 11:25

Marietje Schaake, exdiputada del Parlamento Europeo y experta en tecnologíaIlvy Njiokiktjien para The New York Times. Marietje Schaake, exdiputada del Parlamento Europeo y experta en tecnologíaIlvy Njiokiktjien para The New York Times.

La inteligencia artificial a veces “alucina”, es decir, inventa cosas. Y estos errores pueden ser simplemente decepcionantes o, por el contrario, tener consecuencias devastadoras para algunas personas.

SACRAMENTO radisson
CIFFT 1250x115
Arapey 1250x115
Fiexpo 2024 1250x115
SACRAMENTO - proasur
Mintur verano 1250x115
TSTT-1250x115

por Elda Cantú, New York Times, Senior News Editor, Latin America

Marietje Schaake, una política holandesa experta en tecnología que ha sido integrante del Parlamento Europeo, fue erróneamente calificada como “terrorista” por BlenderBot 3, un robot de conversación originado en un proyecto de investigación de Meta, la empresa dueña de Facebook y WhatsApp.

Se sabe que las herramientas impulsadas por la IA han producido fallos legales falsos (que afectaron un caso real en la corte), generado imágenes pseudohistóricas que causan confusión y también han escrito artículos científicos simulados.

“A menudo, el daño es mínimo y se trata de unos deslices alucinatorios fácilmente refutables”, escribió la reportera de tecnología Tiffany Hsu en este artículo. “Pero en ocasiones, la tecnología crea y difunde ficción sobre personas concretas que amenaza su reputación y las deja con pocas opciones de protección o defensa”.

A veces estos errores inducidos por la IA tienen impactos más graves en la vida real. En febrero, Porcha Woodruff, una estudiante de enfermería en Detroit, fue arrestada y esposada en su domicilio durante un operativo policial. A Woodruff se le acusaba —de manera errónea— de atraco y robo de un auto. Las autoridades tenían un video de la mujer responsable de los delitos y usaron una herramienta de reconocimiento facial para identificarla.

(Ya hemos reportado que en el Reino Unido los negocios utilizan tecnología de reconocimiento facial que usa IA para prohibir la entrada a sus establecimientos a personas que supuestamente tienen antecedentes de robo).

“Tienes una herramienta muy poderosa que, si busca suficientes rostros, siempre mostrará individuos que se parecen a la persona en la imagen de las cámaras de vigilancia”, explicó Gary Wells, profesor de psicología que ha estudiado la confiabilidad de las identificaciones hechas por testigos oculares. Wells comentó que incluso si una persona con aspecto similar es inocente, un testigo ocular al que se le pide hacer la misma comparación es propenso a repetir el error cometido por la computadora.

Y, más allá de estas equivocaciones, la inteligencia artificial también puede emplearse con fines maliciosos: se clonan audios para extorsionar a las personas, se crean imágenes pornográficas de deepfake —como se le conoce a los montajes ultrarrealistas— para simular que una persona participa en situaciones sexuales y se orquestan campañas enteras de desinformación para impulsar agendas encubiertas.

A menudo, no hay muchas opciones para que las personas afectadas puedan defenderse. En el caso de Schaake, la exparlamentaria, decidió no demandar a Meta. Otras personas que intentan defenderse por la vía legal encuentran que es casi imposible que sus atacantes comparezcan ante las autoridades debido a los vacíos legales y la falta de regulación al respecto.

En el caso de Woodruff, que enfrentaba la posibilidad de ir a prisión, ella estaba embarazada de ocho meses cuando la arrestaron, algo que al final le ayudó a comprobar su inocencia. Pero dice que el error afectó su salud, perjudicó su reputación con los vecinos, que atestiguaron su arresto, y le causó estrés psicológico.

“Da miedo. Estoy preocupado. Es común que una persona se parezca a alguien más”, dijo Ivan L. Land, el abogado de Woodruff, subrayando la importancia del criterio humano. “El reconocimiento facial tan solo es una herramienta de investigación. Si identifica a alguien, deben hacer su trabajo e investigar más. Conversen con la persona”.

Portal de América

Escribir un comentario

Promovemos la comunicación responsable. No publicamos comentarios de usuarios anónimos ni aquellos que contengan términos soeces o descalificaciones a personas, empresas o servicios.