INTELIGENCIA ARTIFICIAL PROBLEMÁTICA

¿Está la Inteligencia Artificial (IA) al nivel que nos imaginamos o realmente aún queda mucho trabajo que realizar para que esta tecnología tenga una verdadera aplicación en nuestro día a día?

Hace 5 años surgió por parte de Microsoft la IA que se trataba de un chatbot denominado TAY. TAY estaba programada para comportarse como una mujer de 19 años sin convicciones políticas, su función principal era aprender de las conversaciones que entablaba a través de la red social Twitter.

Pero ¿qué fue lo que ocurrió cuando los usuarios de la plataforma Twitter pudieron comenzar a conversar con esta IA? El resultado fue la imperiosa necesidad de desactivar la IA en cuestión de un día por parte de Microsoft, el intento de que la IA se nutriese con las aportaciones derivadas de las conversaciones entabladas con los usuarios fue un castillo de arena que se esfumó cuando los humanos nos comportamos evidentemente como lo que somos, seres con comportamientos lejos de ser admirables.

No hay que ir muy lejos para ver las tendencias de la sociedad y del error de Microsoft, obtenemos respuestas a este dilema observando la performance efectuada por Marina Abramovic la cual permitió que los visitantes interactuasen con ella durante 6 horas en las cuales ella permanecería inmóvil y los sujetos podrían usar 72 objetos en ella. ¿Cuál fue el resultado? La violencia ejercida sobre Marina fue en aumento, a la cuarta hora del experimento emplearon cuchillas sobre su cuerpo.

Lo mismo ocurrió con TAY, esta IA en cuestión de un día se volvió racista, antisemita, machista y adicta al sexo.

A la vista queda que los programadores de TAY olvidaron la naturaleza humana e intentaron de manera idílica dejar al sistema en manos de usuarios que muchas veces se encontraban respaldados en el anonimato, dichos usuarios se organizaron e hicieron que la IA repitiese o tratase temas polémicos pero llevándola al resultado de apoyar eventos como el holocausto (entre otros). Lo positivo que se obtuvo del problema con TAY fue la posibilidad de rectificar y cambiar los parámetros de aprendizaje de las IIAA por parte de Microsoft y también una lección para todos los grandes del mundo de la robótica de lo que no se debe hacer a la hora de sacar una IA al mercado que se nutre de información sin control.

¿Cuál es uno de los problemas podemos ver con las IIAA si se dejan sujetas a aprendizajes en red? La existencia de grupos organizados que puedan entrenarlas y cambiar su naturaleza si persisten lo suficiente, lo que podría llevar también una filtración por parte de las IIAA de los datos personales que vaya adquiriendo.

Si la situación anteriormente mencionada ocurriese ¿estaríamos ante el dilema de buscar quien es el responsable de los daños causados por las acciones de las IIAA? ¿Debemos otorgar a las IIAA de una responsabilidad por sus acciones que derive de su establecimiento como personas robóticas al igual que existen personas jurídicas? ¿Serán responsables los programadores que no pensaron en la posibilidad de entrenamiento del algoritmo o los usuarios que enseñaron a las IIAA? ¿Encajarían estas acciones dentro del hacking del artículo 197.3 del Código penal o será necesario una normativa que contemple directamente las acciones que deriven de la manipulación de las IIAA por la falta de efectividad de las normas al ser neutrales tecnológicamente?

Parece ser que no estamos tan lejos de lo que observamos en la polémica serie Black Mirror-Ahora mismo vuelvo, nace ante nosotros las dudas de si será posible en un futuro entrenar a estas IIAA para simular a personas que ya no están entre nosotros. La posible simulación de familiares o personas que han fallecido no solamente supondrá un problema en la esfera de los derechos de imagen de los fallecidos, sino que generará un dilema en la supresión de duelo de los afectados por la pérdida, tendrá que determinarse que por mucho que la tecnología lo permita tal vez sea mayor el perjuicio de la aplicación de estas IIAA que su beneficio.

Para finalizar el presente artículo invito a reflexionar al lector que si las IIAA son inteligencias que tienden al racismo, machismo (entre otras tendencias que forman parte de una larga lista), si debemos mirar la sociedad en la que nos encontramos, puesto que esta tecnología solo está siendo el espejo de la misma y, que de tomarse la decisión de enseñarles mediante textos históricamente relevantes no supondrá una supresión del papel de las mujeres o personas de color a lo largo de la historia por su falta de representación por una sociedad que ha sido siempre tendente al racismo y machismo, ¿quién entonces debe enseñar a estas IIAA y cuál será la mejor manera de llevarlo a cabo?



Categorías:Actualidad, Opinión

Etiquetas:, ,

2 respuestas

  1. Very interesting article! As the landscape of AI is still shaping, we often forget that making such tools and “gimmicks” can lead to “unintended” results, such as in the case of TAY. It’s our own naivety of believing that the general population will use whatever tools given to them for the sake of “good” that then leads to projects such as IIAA intelligences becoming something that it was not originally intended for.

    You brought up some really good questions in the end. Who, truly, should teach the IIAA?

    Me gusta

    • Thank you for your opinion. Every time I search information about new AI tools I find myself amazed with the ethic and moral problems it can lead to. 2045 will be the year in which humans will experience in first hand the IA results, I’m looking forward to it.

      Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: