Google enfrenta críticas por activar el acceso predeterminado de Gemini a WhatsApp

Google enfrenta críticas por activar el acceso predeterminado de Gemini a WhatsApp

Foto: Sergio F Cara, Gustavo Torres

El reciente anuncio sobre la integración predeterminada de Gemini, la inteligencia artificial (IA) de Google, con aplicaciones de terceros como WhatsApp, ha generado inquietud global en la privacidad digital. Cuando un asistente de IA accede automáticamente a conversaciones privadas, sin la autorización explícita de los usuarios, esto representa un nuevo punto crítico en el debate sobre la protección de datos personales.

 

Según Kaspersky y reportes de medios tecnológicos especializados, esta función permitirá a Gemini interactuar directamente con aplicaciones de mensajería, ofreciendo respuestas y acciones automáticas basadas en el contenido de los chats. Google sostiene que esta capacidad busca mejorar la fluidez de las interacciones digitales, pero expertos en ciberseguridad advierten sobre los riesgos que implica aplicar un modelo de exclusión voluntaria donde el acceso está activado por defecto y requiere acción manual del usuario para desactivarlo.

 

Desde el 9 de julio de 2025, foros y comunidades tecnológicas han expresado preocupaciones por el nivel de acceso que la IA tendría a información sensible, incluyendo datos íntimos y potencialmente confidenciales. A diferencia de otras integraciones, donde el consentimiento debe otorgarse explícitamente, Gemini estaría habilitado por configuración predeterminada, podría dejar a millones de usuarios sin conocimiento claro de la actividad del sistema.

 

Marc Rivero, analista principal de ciberseguridad en el Equipo Global de Investigación y Análisis de Kaspersky, declaró "la IA debería fortalecer la seguridad y la privacidad, no comprometerlas. Conceder acceso por defecto a datos altamente personales sin salvaguardas sólidas establece un precedente peligroso. Las empresas siempre deben centrarse en empoderar a los usuarios con control total y claridad sobre cómo se usa su información. Justamente así se podría garantizar que la implementación de la IA ponga la privacidad en primer lugar".

 

IMG2 Una inquietud no solo se limita a la privacidad individual. Especialistas en ciberseguridad advierten, este tipo de integraciones podrían ser aprovechadas por ciberdelincuentes para escalar ataques de ingeniería social, suplantaciones de identidad y fraudes digitales. Dado que la IA procesa grandes volúmenes de datos en tiempo real, una vulnerabilidad o explotación indebida de estas conexiones podría abrir nuevas puertas a amenazas cibernéticas masivas.

 

Hasta el momento, Google no ha emitido una declaración que detalle los mecanismos de protección que Gemini empleará para proteger los datos de aplicaciones como WhatsApp. La falta de transparencia sobre los protocolos de cifrado, almacenamiento y tratamiento de la información alimenta las dudas sobre el cumplimiento efectivo de las normativas globales de privacidad, como el Reglamento General de Protección de Datos (GDPR) en Europa.

 

Las implicaciones culturales y sociales de este tipo de tecnologías también son significativas. En muchas regiones, las aplicaciones de mensajería constituyen uno de los últimos reductos digitales donde los usuarios sienten que mantienen un espacio privado. La introducción de herramientas automatizadas pueda analizar estos espacios sin consentimiento informado podría modificar las expectativas sociales sobre la privacidad en línea.

 

Controversia que marca un nuevo capítulo en la discusión sobre los límites éticos de la inteligencia artificial y el papel que las grandes tecnológicas juegan en la vida cotidiana de los usuarios. En un contexto donde la privacidad es cada vez más un activo disputado, las decisiones predeterminadas afectando a millones de personas continúan generando debate. (Notipress)

Notas Relacionadas