Mostrando entradas con la etiqueta AI. Mostrar todas las entradas
Mostrando entradas con la etiqueta AI. Mostrar todas las entradas

TheySeeYourPhotos.com: ¿Qué revela a la IA una sola imagen?

Hoy descubriremos algo tan asombroso y simple de utilizar como aterrador por lo que supone. Todo lo que la IA de Google descubre de nuestras vidas a través de una sola fotografía. El título ya es explícito: They See Your Photos / Ellos ven tus fotos. La web promueve una visión educativa para hacernos comprender el poder de la IA (véase en muchos posts).

En un mundo donde las imágenes son el lenguaje universal de la era digital, una sola fotografía puede ser más reveladora que un diario íntimo. Imaginen subir una instantánea casual a la nube: un atardecer en la playa, un retrato familiar o incluso un objeto cotidiano como una máscara de cómic. ¿Qué secretos desvela? ¿Qué inferencias construye una inteligencia artificial sobre nuestra identidad, deseos y vulnerabilidades? 

Esta es la premisa inquietante de They See Your Photos (https://theyseeyourphotos.com/), un sitio web interactivo lanzado en noviembre de 2024 que transforma la curiosidad en una lección magistral sobre privacidad y ética en la inteligencia artificial. Como un espejo distorsionado por algoritmos, este experimento nos confronta con el poder voraz de la visión computacional, recordándonos que, en la red, nada es verdaderamente privado.

Detrás de esta herramienta se encuentra Ente, una plataforma de almacenamiento de fotos de código abierto y cifrada de extremo a extremo, fundada por Vishnu Mohandas, un ingeniero de software indio que abandonó Google en 2020 por motivos éticos. Mohandas, quien se formó en programación autodidacta en Bengaluru, se desilusionó al descubrir la colaboración de Google con proyectos militares de IA, como el análisis de imágenes de drones para el Departamento de Defensa de EE.UU. "Quería crear algo más privado, wholesome y confiable", declara en entrevistas, impulsando Ente como alternativa a Google Photos, con más de 100.000 usuarios enfocados en la privacidad. Sin embargo, convencer al público masivo de migrar de la comodidad de Google a un ecosistema cifrado resultó un desafío. Aquí entra They See Your Photos, ideado por un becario de Ente como un "golpe de marketing" que usa la arma del adversario contra sí mismo: la API de Visión de Google Cloud.

El funcionamiento es sorprendentemente simple, pero sus implicaciones, profundas. El usuario sube una imagen —o selecciona una de las muestras proporcionadas, como un paisaje andino o una figura de Warhammer— y el sitio la envía al motor de visión computacional de Google. En segundos, recibe un informe exhaustivo de tres párrafos: una narración detallada que disecciona el contenido con precisión quirúrgica. No se limita a identificar objetos (un caballo, un pincel, una máscara); infiere emociones, demografías, contextos socioeconómicos y hasta inclinaciones políticas. 

Por ejemplo, una foto de una persona sola en un paisaje desolado podría describirse como "indicando una experiencia individualista o solitaria", ignorando que alguien más podría haber tomado la imagen. Otro caso: una imagen de un modelo de miniaturas de fantasía es etiquetada como perteneciente a alguien aficionado a la jardinería, la destrucción y la contaminación, alineado con el Partido Verde —una proyección absurda que roza lo cómico, pero ilustra el sesgo inherente en los modelos de IA entrenados en datos masivos y no auditados.

Estas deducciones no son meras curiosidades técnicas; son el combustible de la economía de la vigilancia. Google Photos, con sus 1.800 millones de usuarios activos, accede a nuestras bibliotecas visuales para entrenar modelos de IA y perfilar anuncios personalizados. Aunque los usuarios pueden desactivar algunas funciones de análisis, no hay forma de impedir el escrutinio total, ya que las imágenes no están cifradas de extremo a extremo. El sitio de Ente expone esta realidad: una foto tomada con un Pixel 8 a las 13:38 del 4 de diciembre de 2024 revela no solo el dispositivo, sino intereses en ciencia ficción, gaming y posiblemente impresión 3D, proyectando un perfil de "adulto joven con aficiones en fantasía". En foros como Reddit y Hacker News, los usuarios reportan asombro y alarma: "Esto enseña por qué la privacidad importa", comenta un redditor, mientras otro bromea sobre usarlo en r/roastme para autodesprecio algorítmico.

Desde una perspectiva educativa y científica, They See Your Photos es un artefacto pedagógico invaluable. En el cruce de la ciencia de la computación y la ética de la IA, ilustra conceptos clave como el reconocimiento de patrones en redes neuronales convolucionales (CNN) y los riesgos de sesgos en datasets como ImageNet, que perpetúan estereotipos raciales y de género —por ejemplo, asumiendo siempre un fotógrafo caucásico de clase alta, independientemente del contexto. En aulas de tecnología o talleres de IA, podría usarse para debates sobre el "derecho al olvido" o regulaciones como el RGPD europeo, que exigen transparencia en el procesamiento de datos. Además, resalta avances en multimodalidad: la API de Google no solo "ve", sino que narra, integrando visión con procesamiento de lenguaje natural (PLN), un pilar de modelos como GPT-4o.

Un año después de su lanzamiento —en este noviembre de 2025—, el sitio mantiene su vigencia en un panorama donde la IA generativa acelera la extracción de datos. Publicaciones como WIRED y PetaPixel lo alabaron por democratizar el conocimiento sobre vigilancia, pero también advierten: las fotos subidas al sitio se envían a Google, por lo que Ente urge leer su política de privacidad antes de experimentar. Ente, por su parte, ofrece importación desde Google Takeout, sincronización local y ML acelerado, posicionándose como baluarte contra esta erosión de la intimidad.

En última instancia, They See Your Photos no es solo un juguete interactivo; es un llamado socrático a la introspección digital. Nos obliga a cuestionar: ¿estamos dispuestos a ceder nuestra narrativa visual a algoritmos opacos? En una era de deepfakes y perfiles predictivos, recuperar el control —mediante herramientas como Ente— no es lujo, sino imperativo ético. Suban una foto, lean el veredicto y reflexionen: la IA no solo ve; interpreta, y en esa interpretación reside nuestro futuro compartido, o fragmentado.

¿Qué podemos hacer? Algunos medios y expertos sugieren medidas concretas para mitigar riesgos:

- Evitar la sincronización automática de las fotos con plataformas que puedan analizarlas sin tu control.
- Eliminar metadatos de las imágenes (por ejemplo, con herramientas como Exiftool) antes de subirlas o compartirlas.
- Utilizar servicios de almacenamiento más privados, como Ente o Proton Drive, que cifran los datos de extremo a extremo.
- Aplicar prácticas de alfabetización digital: educar a usuarios (especialmente jóvenes) sobre qué tipo de inferencias puede hacer una IA a partir de una imagen.

HumanTek en la Semana Europea de la Robótica 2025 en Bilbao

Acudiremos el próximo jueves 20-11-25 a la primera jornada de la Semana Europea de la Robótica en el evento que se celebrará en la Sala Konekta de La Perrera de Bilbao. En el primero de los cuatro días, presentaremos la Asociación HumanTek (otros posts), que evoluciona después de más de 20 años del colectivo Internet & Euskadi que nació en 2003.

El evento, que es 100% gratuito, incluirá una variedad de actividades:

Charlas y Ponencias: Como la "Ponencia Humantek sucesora de Internet & Euskadi" sobre las nuevas perspectivas de la robótica e IA en Euskadi. Jueves 20 a las 16:00 horas.

- Hackathon "Le Robot": Tendrá lugar del 21 al 23 de noviembre, dirigido a talentos en robótica e inteligencia artificial, con 3.000 € en premios.
- Talleres Familiares: El 22 de noviembre (día de puertas abiertas) se ofrecerán talleres rotativos como "Carrera de Mario kart", "Perros Robots" y "Ugot Space Kit".
- Demostraciones: Se mostrarán robots en acción, incluyendo un "Robot Artista" y el robot Franka FR3.
- Paneles de Debate: Sobre el impacto de la IA y la robótica en la vida diaria.
- Exhibiciones: Incluirá una exhibición de proyectos de la First Lego League (FLL) y un encuentro de jóvenes "maker" (Bilbao Maker Faire).
- Presentaciones: Estudiantes presentarán proyectos de robótica y TFGs.
Networking: Pausas para conectar con profesionales y estudiantes.
Web oficial: semanaeuropearoboticabilbao.eus

Neuronas y Algoritmos: El diálogo definitorio del siglo XXI

Durante siglos la humanidad ha interrogado la naturaleza de la inteligencia humana. Con la irrupción de la inteligencia artificial (IA), esa pregunta se vuelve técnica, ética y social. ¿Qué nos hace realmente inteligentes? ¿En qué se parecen y en qué se diferencian una mente humana y un algoritmo capaz de aprender?

La comparación entre inteligencia humana e inteligencia artificial es hoy inevitable, no solo porque compartan la palabra “inteligencia”, sino porque ambas reflejan modos distintos de procesar información, resolver problemas y generar conocimiento. Y, sin embargo, su naturaleza, origen y límites son profundamente dispares.

1. Orígenes: evolución vs diseño

La inteligencia humana es producto de la evolución biológica. Surgió hace millones de años a partir de sistemas nerviosos cada vez más complejos, afinados por la selección natural. El cerebro humano —con sus 86.000 millones de neuronas— no fue diseñado, sino que emergió, imperfecto pero sorprendentemente adaptable. La inteligencia humana opera con una eficiencia energética asombrosa: nuestro cerebro consume apenas 20 vatios, mientras que entrenar un modelo de IA avanzado puede requerir megavatios durante semanas. Esta disparidad subraya la elegancia de millones de años de evolución.

La inteligencia artificial, por el contrario, es una creación humana. No nace, se programa. Aunque los modelos actuales de IA generativa, como los grandes modelos de lenguaje o los sistemas de aprendizaje profundo, pueden “aprender” de enormes cantidades de datos, su aprendizaje sigue siendo una simulación inspirada en el cerebro, no una réplica.

La inteligencia biológica es el resultado de la experiencia vivida; la artificial, del cálculo estadístico sobre datos. Donde una siente, la otra estima probabilidades.

2. Semejanzas funcionales entre mente y máquina

Ambas inteligencias comparten un mismo propósito funcional: procesar información para adaptarse o actuar eficazmente en un entornoTanto un niño como una IA aprenden por exposición: el primero observa y experimenta; la segunda analiza patrones en los datos. En ambos casos, el aprendizaje consiste en ajustar conexiones —sinápticas o matemáticas— para mejorar el rendimiento.

También comparten rasgos como la capacidad de reconocer patrones, generar soluciones, o incluso crear contenidos nuevos. Los sistemas de IA generativa son capaces de redactar textos, componer música o resolver problemas lógicos de manera similar a la creatividad humana. 

Sin embargo, esa semejanza es sólo superficial: la IA imita resultados, no comprende significados. Lo que parece “entendimiento” en una máquina es, en realidad, una correlación estadística refinada.

3. La diferencia esencial: conciencia y contexto

El abismo entre ambas inteligencias radica en la conciencia. La inteligencia humana está impregnada de emociones, intenciones y contexto social. Cada decisión es una síntesis de razón, memoria, deseo y cultura. Pensamos porque sentimos, y sentimos porque vivimos en comunidad. Los seres humanos experimentan estados subjetivos, emociones y sentido corporal; las máquinas, hoy, no tienen vivencia propia. 

Investigadores del ámbito de la neurociencia, como Christof Koch, estudian las bases neuronales de la conciencia y debaten hasta qué punto sistemas complejos podrían exhibir propiedades análogas.  La IA, por el momento, carece de experiencia subjetiva. No sabe que sabe. No tiene emociones ni cuerpo, y por tanto no comprende el sufrimiento, el humor ni la ironía más allá de patrones textuales.

Mientras la mente humana entiende los significados desde la experiencia vital, la IA los infiere desde correlaciones numéricas. La diferencia no es solo técnica, sino ontológica: la IA procesa símbolos, pero no vive sentidos.

4. Límites y promesas

La inteligencia humana es creativa y ética, pero también limitada por sesgos cognitivos y fatiga. La IA puede procesar volúmenes de datos inmensos sin cansancio, pero replica y amplifica los sesgos presentes en sus datos de entrenamiento. La literatura científica y los artículos de revisión en revistas como Nature Machine Intelligence subrayan la necesidad de métodos explicables y regulación. 

La inteligencia humana es limitada por su biología: se cansa, olvida, se deja llevar por sesgos. La IA, en cambio, puede procesar millones de datos en segundos, sin distracciones ni fatiga. Pero la IA también tiene límites profundos: depende de los datos que recibe (y sus sesgos), carece de intuición, y no entiende los valores ni la ética de sus actos.

Por eso, más que competir, ambas inteligencias se complementan. La IA amplifica la inteligencia humana, automatiza tareas, descubre patrones invisibles y permite dedicar más tiempo al pensamiento crítico y la creatividad. El futuro no será de una inteligencia contra la otra, sino de una alianza entre mente y algoritmo, donde lo humano aporte sentido y ética, y lo artificial potencia capacidad y precisión.

5. Complementariedad hacia una inteligencia híbrida: Alianza más que competencia

Más que una competición, lo prometedor es la colaboración entre dos paradigmas cognitivos: la IA amplifica la capacidad humana para detectar patrones, acelerar descubrimientos y automatizar tareas rutinarias; la humanidad aporta juicio, valores y contexto. El desafío social será gobernar esa alianza para priorizar la dignidad, la justicia y la educación. 

Algunos científicos, como el neurocientífico Christof Koch o el filósofo Daniel Dennett, proponen que la frontera entre lo biológico y lo artificial podría diluirse en las próximas décadas. La interfaz cerebro-computadora, la biotecnología y el aprendizaje profundo apuntan a una inteligencia híbrida, donde la mente humana se expanda gracias a la tecnología.

En ese horizonte, el desafío no será técnico, sino moral: ¿cómo preservar la dignidad humana en un mundo donde las máquinas piensan, crean o deciden con nosotros?

Conclusión: Este diálogo entre inteligencias nos obliga a reconsiderar qué valoramos de nuestra propia cognición. Quizás la inteligencia no sea una propiedad monolítica que se posee en mayor o menor grado, sino un ecosistema de capacidades: memoria, razonamiento, creatividad, empatía, intuición. En este espectro multidimensional, humanos y máquinas ocupan nichos distintos pero igualmente fascinantes.

Mientras continuamos desarrollando sistemas artificiales más sofisticados, no estamos simplemente creando herramientas más poderosas. Estamos sosteniéndonos un espejo que nos revela, por contraste, qué significa verdaderamente ser humanos. La inteligencia humana y la artificial son dos espejos que se observan mutuamente. 

Mientras la primera nos recuerda la fragilidad y profundidad de la conciencia cuando aporta sentido y experiencia, la segunda proporciona escala y potencia de la abstracción matemática. El futuro ideal es híbrido: tecnologías que amplían la mente humana sin reemplazar su autoridad ética. 

Tal vez el verdadero futuro de la inteligencia no consista en elegir entre cerebro o circuito, sino en aprender a convivir con ambos como partes de un mismo proyecto evolutivo: comprender el conocimiento y darle sentido.

Personajes del Año 2025 en AI, la nueva electricidad

En este blog tratamos de conectar la tecnología con el humanismo. Para ello, iniciamos la designación de dos personajes del año 2025, que publicaremos en estos dos últimos meses antes de pasar a 2026. Deberán ser personas, un hombre y una mujer, que no sólo innovan, sino que fundamentalmente moldean la dirección de esa innovación. Porque más que meros inventores, necesitamos arquitectos éticos y educadores visionarios.

Basado en la prominencia y el impacto demostrado a lo largo de este año 2025, nuestras dos sugerencias se centran en las dos caras de la misma moneda: la visión académica (guiar el pensamiento) y la ejecución industrial (construir con responsabilidad).

1ª La Visionaria: Dra. Fei-Fei Li - Pionera en visión computacional e impulsora de la "IA centrada en el humano". Su trabajo actual en Stanford sobre IA para la salud y su defensa por una IA más diversa e inclusiva la hacen relevante para la dimensión educativa y social.

Por qué ella: Es la encarnación perfecta de la transición de crear la tecnología a guiarla éticamente. "La madrina de la IA que ahora pastorea su conciencia". Ella representa la sabiduría de la academia y la urgencia de educar a la próxima generación de ingenieros y legisladores. Su perfil para el blog:

  • El pilar de la "IA Centrada en el Ser Humano": Como codirectora del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford (Stanford HAI), la Dra. Li ha sido la voz académica más influyente de 2025. Su trabajo, incluyendo el influyente "AI Index Report 2025" de su instituto, ha definido los términos del debate global.

  • De la técnica a la ética: Su trayectoria es clave. Es famosa por crear ImageNet, el conjunto de datos que (en 2012) desató la revolución de la IA moderna. Sin embargo, ha dedicado la última década a asegurarse de que la tecnología que ayudó a nacer sirva a la humanidad.

  • Foco en Educación y Política: Ha sido una defensora incansable de la alfabetización en IA y ha testificado ante legisladores, argumentando que la política de IA debe basarse en "la ciencia, no en la ciencia ficción", humanizando el debate en los centros de poder.

2ª El Arquitecto: Dario Amodei - CEO de Anthropic y visionario de la IA segura. Su enfoque en "Constitutional AI" y los modelos Claude están marcando un camino alternativo en el desarrollo de IA, priorizando la seguridad y la alineación con valores humanos. Perfecto si quieres ángulo ético-tecnológico. 

Por qué él: Es la prueba viviente de que la ética y la seguridad pueden ser un modelo de negocio viable y competitivo en el corazón de Silicon Valley. "El ingeniero que antepuso la seguridad a la velocidad". Él representa la nueva ola de liderazgo tecnológico que entiende que la confianza y la humanización no son características opcionales, sino la base del producto. Su perfil para el blog:

  • El constructor "Safety-First": Como CEO y cofundador de Anthropic, Amodei ha posicionado a su compañía (creadora del modelo Claude) como la principal alternativa "consciente" a sus rivales. Dejó OpenAI precisamente por diferencias sobre la velocidad del desarrollo frente a los riesgos de seguridad.

  • La "IA Constitucional": Su contribución técnica más importante de 2025 no es solo un modelo más potente, sino un método. La "IA Constitucional" de Anthropic es un enfoque tangible para alinear la IA con valores humanos (como la Declaración Universal de los Derechos Humanos), integrando la ética directamente en la arquitectura del modelo, en lugar de añadirla como un parche.

  • Liderazgo en la Regulación: Durante 2025, Amodei ha sido una figura central en las discusiones regulatorias en Washington y Bruselas, demostrando que la industria puede (y debe) liderar la petición de barreras de seguridad, en lugar de luchar contra ellas.

Por qué funcionan juntos

Juntos, Li y Amodei cubren el espectro completo de este nuestro / vuestro blog:

  • Fei-Fei Li (Academia y Educación): Establece la visión, la investigación y el marco educativo.

  • Dario Amodei (Industria y Tecnología): Demuestra cómo implementar esa visión en un producto que compite al más alto nivel.

Ambos humanizan la IA: ella desde la perspectiva de su impacto social y cognitivo, y él desde la arquitectura interna de la propia máquina. Había otras dos segundas candidaturas adicionales —una mujer y un hombre— que también hubieran podido encajar como “Personajes del Año 2025” para este blog de educación, ciencia, tecnología e inteligencia artificial.

Mujer Finalista: Irene Solaiman. Investigadora en inteligencia artificial y política pública. Actualmente es Chief Policy Officer en Hugging Face (desde 2025) y anteriormente fue Head of Global Policy allí. Antes de ello trabajó en OpenAI donde fue pionera en el análisis de sesgos de modelos de lenguaje y en integrar lenguas y culturas menos representadas.

Aborda el cruce entre IA, sociedad, ética y educación: perfecto para un blog que no sólo quiera la “tecnología” sino también su impacto educativo y científico. Su labor de política, sesgos y equidad resulta relevante para pensar “¿cómo enseñamos IA?” o “¿cómo formamos alumnos para el mundo de la IA responsable?”. Desde un ángulo más humano y social que puramente técnico, lo cual aporta diversidad de enfoque al blog.

“Irene Solaiman: poner en el centro los valores humanos de la IA en 2025”. Explorar cómo su trabajo nos obliga a replantear la educación en IA, los currículos escolares y la alfabetización digital.

Hombre Finalista: Alexandr Wang. Es empresario e investigador en inteligencia artificial. Cofundador de Scale AI (2016) y en 2025 nombrado Chief AI Officer en Meta Platforms tras un acuerdo de inversión que valoró Scale AI en decenas de miles de millones de dólares. Además se le ve muy activo en la esfera de política, seguridad e implicaciones globales de la IA. 

Representa el componente “tecnología disruptiva + escala global” de la IA: desde infraestructura, datos, modelos, hasta implicaciones geopolíticas. Su figura permite abrir reflexiones en el blog sobre “¿qué rol jugarán los datos en educación?” o “¿cómo la IA a gran escala impacta la ciencia y la enseñanza en 2025-2030?”. Su perfil empresarial y estratégico le da también un enfoque “innovación tecnológica” que complementa al más humanista de Irene Solaiman.

“Alexandr Wang: arquitectura de la IA de fondo y su implicación para la educación en 2025”. Puedes tratar cómo la infraestructura de IA cambia las posibilidades para la ciencia, la tecnología y la educación, y qué pueden hacer docentes, escolares y materiales para adaptarse.

Finalmente, dos terceras y últimas candidaturas adicionales, una de cada género. Ambos complementan perfectamente: Karpathy como el optimista educador, Gebru como la guardiana ética.

Candidatura Timnit Gebru. Fundadora del Distributed AI Research Institute (DAIR) y etíope pionera en ética de IA:

  • Voz crítica esencial: Investiga sesgos algorítmicos y justicia en sistemas de IA
  • Valentía intelectual: Enfrentó a Google sobre transparencia en investigación de IA
  • Liderazgo comunitario: Creó un instituto independiente para investigación ética en IA
  • Interseccionalidad: Conecta tecnología con justicia social y equidad
  • Impacto en políticas: Su trabajo influye en regulaciones de IA globalmente

Representa la conciencia crítica que necesita el desarrollo tecnológico.

Candidatura Andrej KarpathyEx-Director de IA en Tesla y OpenAI, ahora educador independiente. Es el candidato perfecto para un blog educativo porque:

  • Democratizador del conocimiento: Sus cursos gratuitos sobre IA (como "Neural Networks: Zero to Hero") han educado a millones
  • Comunicador excepcional: Traduce conceptos complejos de deep learning a lenguaje accesible
  • Puente generacional: Conecta la investigación académica con aplicaciones prácticas
  • Visión pedagógica: Defiende que "enseñar IA" es tan importante como desarrollarla
  • Activo en redes sociales compartiendo conocimiento sin barreras

Representa la IA como herramienta de empoderamiento educativo. Vídeo final en español, resulta imprescindible para entender la Inteligencia Artificial como la nueva "electricidad". Así lo apuntó Andrew Ng, otro personaje esencial.