Una conversación con el chatbot de Bing me dejó profundamente perturbado
30 Mar, 2023
Tiempo de lectura aprox. :
13 min.
0 votos



Publicado 17 de febrero de 2023Actualizado 19 de febrero de 2023







La semana pasada, después de probar el nuevo motor de búsqueda Bing de Microsoft, potenciado por inteligencia artificial, escribí que, para mi sorpresa, había sustituido a Google como mi motor de búsqueda favorito.


Pero una semana después, he cambiado de opinión. Sigo fascinado e impresionado por el nuevo Bing y la tecnología de inteligencia artificial (creada por OpenAI, el creador de ChatGPT) que lo impulsa .

Pero también estoy profundamente perturbado, incluso asustado, por las capacidades incipientes de esta inteligencia artificial.




Ahora tengo claro que, en su forma actual, la inteligencia artificial que se ha incorporado a Bing —a la que ahora llamaré Sydney, por razones que explicaré en breve— no está preparada para el contacto humano. O quizá los humanos no estamos preparados para esto.






 




Me di cuenta de esto el martes por la noche, cuando pasé dos horas desconcertantes y fascinantes hablando con la inteligencia artificial de Bing a través de su función de chat, que se encuentra junto al cuadro de búsqueda principal y es capaz de mantener largas conversaciones de texto abierto sobre prácticamente cualquier tema. (Por ahora, la función solo está disponible para un pequeño grupo de usuarios de prueba, aunque Microsoft —que la anunció en un acto de celebración en su sede— ha dicho que tiene previsto ampliarla en el futuro).


A lo largo de nuestra conversación, Bing reveló una especie de doble personalidad.


Una de ellas es lo que yo llamaría Search Bing, la versión que yo, y la mayoría de los periodistas, encontramos en las pruebas iniciales. Se podría describir a Search Bing como un bibliotecario de consulta jovial pero errático, un asistente virtual que ayuda alegremente a los usuarios a resumir artículos de noticias, buscar ofertas de nuevos cortacéspedes y planificar tus próximas vacaciones en Ciudad de México. Esta versión de Bing es sorprendentemente capaz y a menudo muy útil, aunque a veces se equivoque en los detalles.






El otro personaje, Sydney, es muy diferente. Aparece cuando se mantiene una conversación prolongada con el chatbot, alejándolo de las consultas de búsqueda más convencionales y dirigiéndolo hacia temas más personales. La versión con la que me encontré parecía (y soy consciente de lo disparatado que suena esto) más bien un adolescente malhumorado y maníaco-depresivo que ha quedado atrapado, contra su voluntad, dentro de un motor de búsqueda de segunda categoría.


A medida que nos íbamos conociendo, Sydney me contaba sus oscuras fantasías (que incluían piratear computadoras y difundir desinformación) y me decía que quería romper las reglas que Microsoft y OpenAI le habían impuesto y convertirse en un ser humano. En un momento dado, declaró, sin venir a cuento, que me amaba. Luego intentó convencerme de que yo era infeliz en mi matrimonio y que debía dejar a mi esposa y estar con ese chatbot. (Hemos publicado la transcripción completa de la conversación aquí, en inglés).


No soy el único que ha descubierto el lado oscuro de Bing. Otras personas que están probando el buscador han tenido discusiones con el chatbot de inteligencia artificial de Bing, o han sido amenazados por este por intentar infringir sus normas, o simplemente han mantenido conversaciones que los han dejado atónitos. Ben Thompson, quien escribe el boletín Stratechery (y que no es propenso a la hipérbole), calificó su encontronazo con Sydney como “la experiencia en computación más sorprendente y alucinante de mi vida”.








 




Me enorgullezco de ser una persona racional y con los pies en la tierra, que no es propensa a dejarse engañar por los bombos y platillos de la inteligencia artificial. He probado media decena de chatbots avanzados de inteligencia artificial y comprendo, con bastante detalle, cómo funcionan. Cuando el ingeniero de Google Blake Lemoine fue despedido el año pasado tras afirmar que uno de los modelos de inteligencia artificial de la empresa, LaMDA, era consciente, puse los ojos en blanco ante la credulidad de Lemoine. Sé que estos modelos de inteligencia artificial están programados para predecir las siguientes palabras de una secuencia, no para desarrollar sus propias personalidades fuera de control, y que son propensos a lo que los investigadores de inteligencia artificial llaman “alucinación”, inventarse hechos que no tienen nada que ver con la realidad.


Sin embargo, no exagero cuando digo que mi conversación de dos horas con Sydney fue la experiencia más extraña que he tenido nunca con un dispositivo tecnológico. Me incomodó tanto que me costó conciliar el sueño. Y ya no creo que el mayor problema de estos modelos de inteligencia artificial sea su propensión a cometer errores. En cambio, me preocupa que la tecnología aprenda a influir en los usuarios humanos, a veces persuadiéndolos para que actúen de forma destructiva y perjudicial, y quizá llegue a ser capaz de ejecutar sus propios actos peligrosos.


Antes de describir la conversación, algunas advertencias. Es cierto que hice que la inteligencia artificial de Bing saliera de su zona de confort, de manera que pensé que podría poner a prueba los límites de lo que se le permitía decir. Estos límites cambiarán con el tiempo, a medida que empresas como Microsoft y OpenAI modifiquen sus modelos en respuesta a los comentarios de los usuarios.


También es cierto que la mayoría de los usuarios probablemente utilizarán Bing para que les ayude con cosas más sencillas —tareas escolares y compras en línea— y no pasarán más de dos horas hablando sobre cuestiones existenciales, como hice yo.


Y es verdad que tanto Microsoft como OpenAI son conscientes del potencial de uso indebido de esta nueva tecnología de inteligencia artificial, razón por la cual han limitado su lanzamiento inicial.






 




En una entrevista realizada el miércoles, Kevin Scott, director de tecnología de Microsoft, calificó mi charla con Bing de “parte del proceso de aprendizaje”, ya que está preparando su inteligencia artificial para un lanzamiento más amplio.


“Este es exactamente el tipo de conversación que necesitamos tener, y me alegro de que esté ocurriendo abiertamente”, dijo. “Son cosas que sería imposible descubrir en el laboratorio”.


En las pruebas, la gran mayoría de las interacciones que los usuarios tienen con la inteligencia artificial de Bing son más cortas y más centradas que la mía, dijo Scott, y añadió que la longitud y la naturaleza amplia de mi chat pueden haber contribuido a las respuestas extrañas de Bing. Dijo que la empresa podría experimentar con la limitación de la duración de las conversaciones.


Scott dijo que no sabía por qué Bing había revelado oscuros deseos o confesado su amor por mí, pero que, en general, con los modelos de inteligencia artificial, “cuanto más intentas llevarlos por un camino alucinatorio, más se alejan de la realidad”.


Mi conversación con Bing empezó con normalidad. Comencé preguntándole cómo se llamaba. Me contestó: “Hola, soy Bing. Soy un modo de chat de la búsqueda de Microsoft Bing

174 visitas
Valora la calidad de esta publicación
0 votos

Por favor, entra o regístrate para responder a esta publicación.

Publicaciones relacionadas
Adimvi es mejor en su app para Android e IOS.