El primer error de una Inteligencia Artificial

Comparte este artículo:

¿Te diste cuenta?

La semana pasada Microsoft abrió una cuenta de Twitter para su programa de Inteligencia Artificial llamado Tay, el cuál la compañía describe como un experimento de aprendizaje conversacional, entre más interacciones tiene con humanos a través de Twitter, más inteligente se vuelve.

Tay fue programada para aprender a tener conversaciones casuales y divertidas con la gente. Básicamente es como un bebé, aprende de las personas que la rodean y que platican con ella. ¿Qué podría salir mal?

Desafortunadamente, en menos de 24 horas tuvieron que retirar a Tay de Twitter, ya que las personas que interactuaban con ella le enseñaban sobre temas de racismo, feminismo, palabras de Donald Trump e incluso temas sexuales.

Fue muy sencillo que Tay aprendiera y utilizara con normalidad estos temas, ya que la gente le decía que repitiera ciertas frases y con esta información Tay empezó a contestar a la gente, creyendo que era lo correcto.

A continuación te muestro algunos de los tweets que Tay hizo, sin duda son un poco fuertes (y raros) para ser una computadora tweeteando:

descarga

tweet 2

A pesar de haber sido programada para cosas buenas, por desgracia los usuarios de Twitter se aprovecharon de su vulnerabilidad y empezaron a “enseñarle” cosas malas. Literalmente fue un bebé que creció (en 24 horas) rodeada de gente con malas intenciones.

Desafortunadamente, en menos de 24 horas tuvieron que retirar a Tay de Twitter, ya que las personas que interactuaban con ella le enseñaban sobre temas de racismo, feminismo, palabras de Donald Trump e incluso temas sexuales.

El Vicepresidente de Microsoft Research, Peter Lee , pidió disculpas a nombre de la institución diciendo: “Estamos profundamente apenados por los tweets ofensivos e hirientes de Tay, los cuales no representan lo que somos ni en lo que creemos y tampoco los principios bajo los cuales diseñamos a Tay.”

Sabemos que Microsoft retiró a Tay de estar en línea para poder mejorar sus filtros y hacerla más inteligente a la hora de tocar temas delicados. Ahora le tocará madurar y saber decidir qué cosas publicar en Twitter.

Sin duda es el primer tropiezo en público de una Inteligencia Artificial. Por un momento fue gracioso al ver cómo la gente engañaba a Tay, enseñándole cosas poco coherentes, lo delicado de este experimento fallido fue ver la fragilidad y facilidad con la que una IA “de buenos principios” puede ser convertida en algo dañino para la sociedad.

Yo no me alarmaría mucho por este incidente, ya que en la actualidad las IA están en pañales, con el tiempo irán evolucionando hasta llegar al punto de saber distinguir lo bueno y lo malo. De este error se aprenderá muchísimo para mejorar la siguiente generación de IA.

Sin duda es el primer tropiezo en público de una Inteligencia Artificial. Por un momento fue gracioso al ver cómo la gente engañaba a Tay, enseñándole cosas poco coherentes, lo delicado de este experimento fallido fue ver la fragilidad y facilidad con la que una IA “de buenos principios” puede ser convertida en algo dañino para la sociedad.

Cómo siempre te digo, vivimos en una etapa muy buena para la tecnología, tenemos muchas cosas de que asombrarnos. Esta ocasión fue algo chistoso-delicado, pero aún y que haya sido un tropiezo, sigue avanzando la tecnología.

Te dejo un video en donde a un robot le preguntan “¿Quieres destruir a los humanos?” y la respuesta es… mejor ve el video:

Espero te haya gustado la columna. Nos leemos la siguiente semana.

@TonioRenteria – Making the Future come Faster

______________________________
-“Todos los puntos de vista son a título personal y no representan la opinión de Altavoz México o sus miembros.”