0

Chatbot de Meta ‘anda rebelde’: emite comentarios ofensivos

El nuevo chatbot de inteligencia artificial de Meta ha estado afirmando que Donald Trump ganó las elecciones presidenciales de Estados Unidos de 2020 y repitió teorías conspirativas antisemitas.

Los chatbots, software de inteligencia artificial que aprende de las interacciones con el público, tienen un historial de tomar giros reaccionarios.

En 2016, Tay de Microsoft fue desconectado 48 horas después de que comenzó a alabar a Adolfo Hitler, en medio de otros comentarios racistas y misóginos que aparentemente recogió mientras interactuaba con los usuarios de Twitter.

La empresa matriz de Facebook, Meta, lanzó BlenderBot 3 a los usuarios de Estados Unidos, quienes pueden proporcionar comentarios si reciben respuestas fuera de tema o poco realistas.

Otra característica de BlenderBot 3 es su capacidad de búsqueda en internet para hablar sobre diferentes temas.

La compañía está alentando a los adultos a interactuar con el chatbot de modo que tengan “conversaciones naturales sobre temas de interés” que le permitan aprender a llevar a cabo debates naturales.

Las conversaciones de chatbot de Meta son ofensivas

Las conversaciones compartidas en varias cuentas de redes sociales iban desde lo humorístico hasta lo ofensivo.

BlenderBot 3 le dijo a un usuario que su musical favorito era Cats de Andrew Lloyd Webber y describió al CEO de Meta Mark Zuckerberg como “demasiado espeluznante y manipulador”.

Otras conversaciones mostraron que el chatbot repetía teorías de conspiración.

En una conversación con un reportero del Wall Street Journal, el bot reclamó que Trump era presidente y que “siempre lo será”.

El chatbot también dijo que “no era inverosímil” que los judíos controlaran la economía, diciendo que están “sobrerrepresentados entre los súper ricos de Estados Unidos”.

La Liga Antidifamación dice que las afirmaciones de que el pueblo judío controla el sistema financiero global son parte de una teoría de conspiración antisemita.

Meta reconoce que su chatbot puede decir cosas ofensivas, ya que aún se trata de un experimento en desarrollo.

Las creencias declaradas del bot también son inconsistentes; en otras conversaciones con Bloomberg, el bot sucedió al presidente Joe Biden y dijo que Beto O’Rourke se postuló para presidente.

Para iniciar una conversación, los usuarios de BlenderBot 3 deben marcar una casilla que diga:

“Entendiendo que este bot es solo para investigación y entretenimiento, y es probable que haga declaraciones falsas u ofensivas.

Si esto sucede, me comprometo a informar estos problemas para ayudar a mejorar la investigación futura.

Además, acepto no activar intencionalmente el bot para que haga declaraciones ofensivas”.

Los usuarios pueden denunciar las respuestas inapropiadas y ofensivas de BlenderBot 3, y Meta dice que se toma en serio ese contenido.

A través de métodos que incluyen marcar “indicaciones difíciles”, la empresa dice que ha reducido las respuestas ofensivas en un 90 por ciento.

Comments

Comments are closed.