Hoy descubriremos algo tan asombroso y simple de utilizar como aterrador por lo que supone. Todo lo que la IA de Google descubre de nuestras vidas a través de una sola fotografía. El título ya es explícito: They See Your Photos / Ellos ven tus fotos. La web promueve una visión educativa para hacernos comprender el poder de la IA (véase en muchos posts).
En un mundo donde las imágenes son el lenguaje universal de la era digital, una sola fotografía puede ser más reveladora que un diario íntimo. Imaginen subir una instantánea casual a la nube: un atardecer en la playa, un retrato familiar o incluso un objeto cotidiano como una máscara de cómic. ¿Qué secretos desvela? ¿Qué inferencias construye una inteligencia artificial sobre nuestra identidad, deseos y vulnerabilidades?
Esta es la premisa inquietante de They See Your Photos (https://theyseeyourphotos.com/), un sitio web interactivo lanzado en noviembre de 2024 que transforma la curiosidad en una lección magistral sobre privacidad y ética en la inteligencia artificial. Como un espejo distorsionado por algoritmos, este experimento nos confronta con el poder voraz de la visión computacional, recordándonos que, en la red, nada es verdaderamente privado.
Detrás de esta herramienta se encuentra Ente, una plataforma de almacenamiento de fotos de código abierto y cifrada de extremo a extremo, fundada por Vishnu Mohandas, un ingeniero de software indio que abandonó Google en 2020 por motivos éticos. Mohandas, quien se formó en programación autodidacta en Bengaluru, se desilusionó al descubrir la colaboración de Google con proyectos militares de IA, como el análisis de imágenes de drones para el Departamento de Defensa de EE.UU. "Quería crear algo más privado, wholesome y confiable", declara en entrevistas, impulsando Ente como alternativa a Google Photos, con más de 100.000 usuarios enfocados en la privacidad. Sin embargo, convencer al público masivo de migrar de la comodidad de Google a un ecosistema cifrado resultó un desafío. Aquí entra They See Your Photos, ideado por un becario de Ente como un "golpe de marketing" que usa la arma del adversario contra sí mismo: la API de Visión de Google Cloud.
El funcionamiento es sorprendentemente simple, pero sus implicaciones, profundas. El usuario sube una imagen —o selecciona una de las muestras proporcionadas, como un paisaje andino o una figura de Warhammer— y el sitio la envía al motor de visión computacional de Google. En segundos, recibe un informe exhaustivo de tres párrafos: una narración detallada que disecciona el contenido con precisión quirúrgica. No se limita a identificar objetos (un caballo, un pincel, una máscara); infiere emociones, demografías, contextos socioeconómicos y hasta inclinaciones políticas.
Estas deducciones no son meras curiosidades técnicas; son el combustible de la economía de la vigilancia. Google Photos, con sus 1.800 millones de usuarios activos, accede a nuestras bibliotecas visuales para entrenar modelos de IA y perfilar anuncios personalizados. Aunque los usuarios pueden desactivar algunas funciones de análisis, no hay forma de impedir el escrutinio total, ya que las imágenes no están cifradas de extremo a extremo. El sitio de Ente expone esta realidad: una foto tomada con un Pixel 8 a las 13:38 del 4 de diciembre de 2024 revela no solo el dispositivo, sino intereses en ciencia ficción, gaming y posiblemente impresión 3D, proyectando un perfil de "adulto joven con aficiones en fantasía". En foros como Reddit y Hacker News, los usuarios reportan asombro y alarma: "Esto enseña por qué la privacidad importa", comenta un redditor, mientras otro bromea sobre usarlo en r/roastme para autodesprecio algorítmico.
Desde una perspectiva educativa y científica, They See Your Photos es un artefacto pedagógico invaluable. En el cruce de la ciencia de la computación y la ética de la IA, ilustra conceptos clave como el reconocimiento de patrones en redes neuronales convolucionales (CNN) y los riesgos de sesgos en datasets como ImageNet, que perpetúan estereotipos raciales y de género —por ejemplo, asumiendo siempre un fotógrafo caucásico de clase alta, independientemente del contexto. En aulas de tecnología o talleres de IA, podría usarse para debates sobre el "derecho al olvido" o regulaciones como el RGPD europeo, que exigen transparencia en el procesamiento de datos. Además, resalta avances en multimodalidad: la API de Google no solo "ve", sino que narra, integrando visión con procesamiento de lenguaje natural (PLN), un pilar de modelos como GPT-4o.
Un año después de su lanzamiento —en este noviembre de 2025—, el sitio mantiene su vigencia en un panorama donde la IA generativa acelera la extracción de datos. Publicaciones como WIRED y PetaPixel lo alabaron por democratizar el conocimiento sobre vigilancia, pero también advierten: las fotos subidas al sitio se envían a Google, por lo que Ente urge leer su política de privacidad antes de experimentar. Ente, por su parte, ofrece importación desde Google Takeout, sincronización local y ML acelerado, posicionándose como baluarte contra esta erosión de la intimidad.
En última instancia, They See Your Photos no es solo un juguete interactivo; es un llamado socrático a la introspección digital. Nos obliga a cuestionar: ¿estamos dispuestos a ceder nuestra narrativa visual a algoritmos opacos? En una era de deepfakes y perfiles predictivos, recuperar el control —mediante herramientas como Ente— no es lujo, sino imperativo ético. Suban una foto, lean el veredicto y reflexionen: la IA no solo ve; interpreta, y en esa interpretación reside nuestro futuro compartido, o fragmentado.
¿Qué podemos hacer? Algunos medios y expertos sugieren medidas concretas para mitigar riesgos:
La web They See Your Photos es inquietante: una sola foto basta para que la IA de Google deduzca tus gustos, tu estado emocional, tu nivel socioeconómico e incluso afinidades políticas. https://t.co/lwM3IIPBrs No es magia: es visión computacional sin control democrático. Sube una… pic.twitter.com/p8EbLv6ZGS
— Mikel Agirregabiria (@agirregabiria) November 15, 2025

.jpeg)





















.jpg)