Grok filtra más de 370.000 conversaciones de usuarios en Google

Grok, el chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, ha protagonizado un grave incidente de privacidad: más de 370.000 conversaciones de sus usuarios han aparecido indexadas en los resultados de búsqueda de Google. Entre ellas se encuentran diálogos con datos personales, consultas íntimas e incluso contraseñas.

Una fuga inesperada

Según reveló Forbes y recogió Vice, el problema surge cuando un usuario pulsa el botón de “compartir” en una conversación dentro de Grok. El sistema genera una URL única que publica el chat en la web de Grok. El inconveniente es que estas páginas no están protegidas ni marcadas como privadas: son rastreadas por buscadores como Google, Bing o DuckDuckGo, lo que hace que las conversaciones se vuelvan accesibles públicamente.

Aunque los chats no se asocian de manera directa con los nombres de los usuarios, el contenido compartido puede contener información suficiente para identificar a la persona a través de contexto o detalles adicionales.

Información delicada al alcance de cualquiera

Las conversaciones expuestas van desde tareas simples, como redactar tuits o textos de trabajo, hasta peticiones más sensibles. Forbes constató casos en los que los usuarios pidieron:

  • Consejos médicos o psicológicos de carácter íntimo.
  • Generación de imágenes delicadas, como supuestos ataques ficticios.
  • Intentos de hackeo de carteras de criptomonedas.
  • Inclusión de contraseñas y datos personales en los mensajes.

“Compartir chats en Grok significa publicarlos en internet sin advertencia clara al usuario”, subraya el informe.

Un patrón que se repite en la IA generativa

El incidente recuerda a lo ocurrido recientemente con ChatGPT de OpenAI, cuando también se filtraron conversaciones compartidas a través de su función de “share”. En aquel caso, la compañía desactivó temporalmente esa característica tras la indignación de los usuarios.

La diferencia es que, en el caso de Grok, la polémica se suma a un contexto ya cargado de críticas hacia xAI por la falta de límites en su modelo, que permite generar contenido polémico o sensible que otras plataformas bloquean.

La reacción (o falta de ella)

Por el momento, ni Elon Musk ni xAI han emitido un comunicado oficial sobre las filtraciones. Tampoco está claro si se retirará la opción de compartir, se modificará para evitar la indexación en buscadores o si se implementarán mecanismos de aviso más transparentes.

Expertos en ciberseguridad advierten de que este tipo de fallos erosionan la confianza del público en las plataformas de IA, justo en un momento en que millones de personas y empresas están adoptando estas herramientas para tareas críticas.

“El problema no es solo técnico, es de confianza. Si los usuarios sienten que sus datos más íntimos pueden acabar en Google, dudarán antes de usar estas plataformas”, explican analistas de privacidad consultados.

Una lección para toda la industria

Más allá de Grok, el incidente ilustra la falta de madurez de las medidas de privacidad en la era de la IA generativa. A diferencia de aplicaciones tradicionales, donde la gestión de datos confidenciales lleva años regulada, los chatbots y modelos de lenguaje aún están en una fase de “prueba y error” que expone a los usuarios a riesgos inesperados.

Con Grok sumando ya más de 50 millones de descargas, el reto para xAI será restaurar la confianza de quienes ahora temen que un simple clic convierta en público lo que debería permanecer privado.


Preguntas frecuentes (FAQ)

¿Por qué aparecieron los chats de Grok en Google?
Porque al pulsar el botón de compartir, las conversaciones se publican en una URL visible y sin restricciones, lo que permite que los buscadores las indexen automáticamente.

¿Qué tipo de información se filtró?
Los chats incluían desde consultas laborales hasta preguntas íntimas de salud mental o física, además de datos sensibles como contraseñas o detalles personales.

¿Está identificado cada chat con un usuario concreto?
No directamente, pero el contenido de la conversación puede dar pistas suficientes para identificar a la persona en algunos casos.

¿Ha pasado esto antes con otros chatbots?
Sí. ChatGPT sufrió un problema similar a principios de mes y tuvo que desactivar temporalmente su función de compartir conversaciones para evitar más filtraciones.

vía: vice y forbes

Scroll al inicio