Mostrando entradas con la etiqueta HumanTek. Mostrar todas las entradas
Mostrando entradas con la etiqueta HumanTek. Mostrar todas las entradas

TheySeeYourPhotos.com: ¿Qué revela a la IA una sola imagen?

Hoy descubriremos algo tan asombroso y simple de utilizar como aterrador por lo que supone. Todo lo que la IA de Google descubre de nuestras vidas a través de una sola fotografía. El título ya es explícito: They See Your Photos / Ellos ven tus fotos. La web promueve una visión educativa para hacernos comprender el poder de la IA (véase en muchos posts).

En un mundo donde las imágenes son el lenguaje universal de la era digital, una sola fotografía puede ser más reveladora que un diario íntimo. Imaginen subir una instantánea casual a la nube: un atardecer en la playa, un retrato familiar o incluso un objeto cotidiano como una máscara de cómic. ¿Qué secretos desvela? ¿Qué inferencias construye una inteligencia artificial sobre nuestra identidad, deseos y vulnerabilidades? 

Esta es la premisa inquietante de They See Your Photos (https://theyseeyourphotos.com/), un sitio web interactivo lanzado en noviembre de 2024 que transforma la curiosidad en una lección magistral sobre privacidad y ética en la inteligencia artificial. Como un espejo distorsionado por algoritmos, este experimento nos confronta con el poder voraz de la visión computacional, recordándonos que, en la red, nada es verdaderamente privado.

Detrás de esta herramienta se encuentra Ente, una plataforma de almacenamiento de fotos de código abierto y cifrada de extremo a extremo, fundada por Vishnu Mohandas, un ingeniero de software indio que abandonó Google en 2020 por motivos éticos. Mohandas, quien se formó en programación autodidacta en Bengaluru, se desilusionó al descubrir la colaboración de Google con proyectos militares de IA, como el análisis de imágenes de drones para el Departamento de Defensa de EE.UU. "Quería crear algo más privado, wholesome y confiable", declara en entrevistas, impulsando Ente como alternativa a Google Photos, con más de 100.000 usuarios enfocados en la privacidad. Sin embargo, convencer al público masivo de migrar de la comodidad de Google a un ecosistema cifrado resultó un desafío. Aquí entra They See Your Photos, ideado por un becario de Ente como un "golpe de marketing" que usa la arma del adversario contra sí mismo: la API de Visión de Google Cloud.

El funcionamiento es sorprendentemente simple, pero sus implicaciones, profundas. El usuario sube una imagen —o selecciona una de las muestras proporcionadas, como un paisaje andino o una figura de Warhammer— y el sitio la envía al motor de visión computacional de Google. En segundos, recibe un informe exhaustivo de tres párrafos: una narración detallada que disecciona el contenido con precisión quirúrgica. No se limita a identificar objetos (un caballo, un pincel, una máscara); infiere emociones, demografías, contextos socioeconómicos y hasta inclinaciones políticas. 

Por ejemplo, una foto de una persona sola en un paisaje desolado podría describirse como "indicando una experiencia individualista o solitaria", ignorando que alguien más podría haber tomado la imagen. Otro caso: una imagen de un modelo de miniaturas de fantasía es etiquetada como perteneciente a alguien aficionado a la jardinería, la destrucción y la contaminación, alineado con el Partido Verde —una proyección absurda que roza lo cómico, pero ilustra el sesgo inherente en los modelos de IA entrenados en datos masivos y no auditados.

Estas deducciones no son meras curiosidades técnicas; son el combustible de la economía de la vigilancia. Google Photos, con sus 1.800 millones de usuarios activos, accede a nuestras bibliotecas visuales para entrenar modelos de IA y perfilar anuncios personalizados. Aunque los usuarios pueden desactivar algunas funciones de análisis, no hay forma de impedir el escrutinio total, ya que las imágenes no están cifradas de extremo a extremo. El sitio de Ente expone esta realidad: una foto tomada con un Pixel 8 a las 13:38 del 4 de diciembre de 2024 revela no solo el dispositivo, sino intereses en ciencia ficción, gaming y posiblemente impresión 3D, proyectando un perfil de "adulto joven con aficiones en fantasía". En foros como Reddit y Hacker News, los usuarios reportan asombro y alarma: "Esto enseña por qué la privacidad importa", comenta un redditor, mientras otro bromea sobre usarlo en r/roastme para autodesprecio algorítmico.

Desde una perspectiva educativa y científica, They See Your Photos es un artefacto pedagógico invaluable. En el cruce de la ciencia de la computación y la ética de la IA, ilustra conceptos clave como el reconocimiento de patrones en redes neuronales convolucionales (CNN) y los riesgos de sesgos en datasets como ImageNet, que perpetúan estereotipos raciales y de género —por ejemplo, asumiendo siempre un fotógrafo caucásico de clase alta, independientemente del contexto. En aulas de tecnología o talleres de IA, podría usarse para debates sobre el "derecho al olvido" o regulaciones como el RGPD europeo, que exigen transparencia en el procesamiento de datos. Además, resalta avances en multimodalidad: la API de Google no solo "ve", sino que narra, integrando visión con procesamiento de lenguaje natural (PLN), un pilar de modelos como GPT-4o.

Un año después de su lanzamiento —en este noviembre de 2025—, el sitio mantiene su vigencia en un panorama donde la IA generativa acelera la extracción de datos. Publicaciones como WIRED y PetaPixel lo alabaron por democratizar el conocimiento sobre vigilancia, pero también advierten: las fotos subidas al sitio se envían a Google, por lo que Ente urge leer su política de privacidad antes de experimentar. Ente, por su parte, ofrece importación desde Google Takeout, sincronización local y ML acelerado, posicionándose como baluarte contra esta erosión de la intimidad.

En última instancia, They See Your Photos no es solo un juguete interactivo; es un llamado socrático a la introspección digital. Nos obliga a cuestionar: ¿estamos dispuestos a ceder nuestra narrativa visual a algoritmos opacos? En una era de deepfakes y perfiles predictivos, recuperar el control —mediante herramientas como Ente— no es lujo, sino imperativo ético. Suban una foto, lean el veredicto y reflexionen: la IA no solo ve; interpreta, y en esa interpretación reside nuestro futuro compartido, o fragmentado.

¿Qué podemos hacer? Algunos medios y expertos sugieren medidas concretas para mitigar riesgos:

- Evitar la sincronización automática de las fotos con plataformas que puedan analizarlas sin tu control.
- Eliminar metadatos de las imágenes (por ejemplo, con herramientas como Exiftool) antes de subirlas o compartirlas.
- Utilizar servicios de almacenamiento más privados, como Ente o Proton Drive, que cifran los datos de extremo a extremo.
- Aplicar prácticas de alfabetización digital: educar a usuarios (especialmente jóvenes) sobre qué tipo de inferencias puede hacer una IA a partir de una imagen.

HumanTek en la Semana Europea de la Robótica 2025 en Bilbao

Acudiremos el próximo jueves 20-11-25 a la primera jornada de la Semana Europea de la Robótica en el evento que se celebrará en la Sala Konekta de La Perrera de Bilbao. En el primero de los cuatro días, presentaremos la Asociación HumanTek (otros posts), que evoluciona después de más de 20 años del colectivo Internet & Euskadi que nació en 2003.

El evento, que es 100% gratuito, incluirá una variedad de actividades:

Charlas y Ponencias: Como la "Ponencia Humantek sucesora de Internet & Euskadi" sobre las nuevas perspectivas de la robótica e IA en Euskadi. Jueves 20 a las 16:00 horas.

- Hackathon "Le Robot": Tendrá lugar del 21 al 23 de noviembre, dirigido a talentos en robótica e inteligencia artificial, con 3.000 € en premios.
- Talleres Familiares: El 22 de noviembre (día de puertas abiertas) se ofrecerán talleres rotativos como "Carrera de Mario kart", "Perros Robots" y "Ugot Space Kit".
- Demostraciones: Se mostrarán robots en acción, incluyendo un "Robot Artista" y el robot Franka FR3.
- Paneles de Debate: Sobre el impacto de la IA y la robótica en la vida diaria.
- Exhibiciones: Incluirá una exhibición de proyectos de la First Lego League (FLL) y un encuentro de jóvenes "maker" (Bilbao Maker Faire).
- Presentaciones: Estudiantes presentarán proyectos de robótica y TFGs.
Networking: Pausas para conectar con profesionales y estudiantes.
Web oficial: semanaeuropearoboticabilbao.eus

Manifiesto por una Tecnología Humanista

Borrador de un MANIFIESTO POR UNA TECNOLOGÍA HUMANISTA. 
Hacia una Inteligencia Artificial ética, solidaria y al servicio del bien común

PREÁMBULO

Vivimos una encrucijada histórica. La tecnología, y en particular la inteligencia artificial (IA), ha dejado de ser una herramienta neutral para convertirse en una fuerza transformadora de todos los ámbitos de la vida: la educación, la política, el trabajo, la cultura, la salud. Como toda fuerza poderosa, puede construir o destruir, emancipar o esclavizar, humanizar o deshumanizar.

Por eso, frente a una visión tecnocrática o puramente mercantilista del desarrollo tecnológico, proclamamos la urgencia de una Tecnología Humanista: una tecnología centrada en la dignidad humana, en los derechos fundamentales, en el bien común y en la sostenibilidad del planeta.

1. UNA TECNOLOGÍA QUE POTENCIE LA EDUCACIÓN LIBERADORA

La IA no debe suplantar al educador ni automatizar el pensamiento, sino ampliar las capacidades humanas para el aprendizaje crítico, ético y creativo. Como escribió Paulo Freire, “La educación no cambia el mundo: cambia a las personas que van a cambiar el mundo.”

La IA ha de ser aliada de este cambio: fomentando la equidad en el acceso al conocimiento, personalizando el aprendizaje sin anular la libertad, y combatiendo la brecha digital como una nueva forma de exclusión.

Referencias clave: Paulo Freire, Pedagogía del oprimido. Neil Selwyn, Should Robots Replace Teachers? (post)Audrey Watters, Teaching Machines.

2. UNA TECNOLOGÍA PARA LA DEMOCRACIA Y NO PARA LA DOMINACIÓN

En el ámbito político, la IA puede facilitar una participación más informada, abierta y deliberativa. Pero también puede ser usada para manipular, vigilar y controlar a las poblaciones, como advierte Shoshana Zuboff en La era del capitalismo de la vigilancia“Lo que se ofrece como personalización es en realidad una forma de control.”

Defendemos un uso democrático de la IA, con algoritmos transparentes, auditables, explicables, y bajo control ciudadano. La gobernanza de los sistemas inteligentes debe ser plural, pública y ética.

Referencias clave: Shoshana Zuboff, The Age of Surveillance Capitalism (post)Cathy O'Neil, Weapons of Math Destruction. Evgeny Morozov, To Save Everything, Click Here.

3. UNA TECNOLOGÍA CONSCIENTE DE LOS LÍMITES Y LA TIERRA

Toda tecnología debe someterse a los límites ecológicos del planeta. La IA, con su demanda energética y su dependencia de minerales escasos, plantea serios retos ambientales. Inspirados por pensadores como Ivan Illich y Bruno Latour, afirmamos que no hay justicia tecnológica sin justicia ecológica. “La tecnología sin ética es una forma moderna de barbarie.” Adela Cortina.

Referencias clave: Bruno Latour, Dónde aterrizar: Cómo orientarse en política (siguiente post)Kate Crawford, Atlas of AI. Adela Cortina, Ética cosmopolita.

4. UNA TECNOLOGÍA CON ALMA, NO CON ALGORITMO

La Tecnología Humanista reconoce que no todo lo valioso es cuantificable, ni toda decisión puede ser automatizada. El juicio humano, la empatía, la memoria cultural y el sentido del misterio deben seguir siendo centrales. Como recuerda Byung-Chul Han“La sociedad del algoritmo elimina el azar, la sorpresa, el encuentro.”

Frente al determinismo tecnológico, defendemos la pluralidad de saberes, la poética de lo impredecible y la ética de la compasión.

Referencias clave: Byung-Chul Han, Infocracia, La expulsión de lo distinto (posts). Martha Nussbaum, Sin fines de lucro (post)Simone Weil, La gravedad y la gracia. 

5. UN LLAMAMIENTO A LA RESPONSABILIDAD Y LA IMAGINACIÓN COLECTIVA

Este manifiesto no es una llamada a frenar la tecnología, sino a reimaginarla desde valores humanos universales: la justicia, la libertad, la solidaridad, el respeto por la vida y por las generaciones futuras.

Pedimos a los desarrolladores, legisladores, educadores, ciudadanos y científicas que se comprometan a: 1) Formular códigos éticos vinculantes para el desarrollo de la IA. 2) Garantizar la inclusión y la diversidad en todos los niveles de diseño e implementación tecnológica. 3) Promover una alfabetización digital crítica desde la infancia. 4)Establecer organismos públicos de control algorítmico democrático. 5) Fomentar una ciencia abierta, cooperativa y orientada al bien común.

EPÍLOGO

La tecnología no es destino: es decisión.
La IA no es un sujeto moral: somos nosotros.
Como ciudadanos del siglo XXI, tenemos el deber de orientar el desarrollo tecnológico hacia el florecimiento humano. Que la inteligencia no desplace al alma, ni la eficiencia a la justicia. “El futuro no es un lugar al que vamos, sino uno que estamos construyendo. Y el camino para construirlo cambia tanto el destino como a los que caminan.” John Schaar.

Por una tecnología al servicio de la vida,
Por una inteligencia que no renuncie a la sabiduría,
Por un mañana digno, solidario e inclusivo para todos y todas.

Firmamos, [Espacio para adhesiones individuales o institucionales]

Sin fines de lucro: una defensa radical del pensamiento crítico

Continuamos con lecturas en pro de un humanismo pleno en la era de la tecnología. Hoy analizamos el libro "Sin fines de lucro: Por qué la democracia necesita de las humanidades" (2010) de Martha C. NussbaumEn "Sin fines de lucro", la filósofa y académica Martha C. Nussbaum alerta sobre una peligrosa tendencia global: el progresivo desmantelamiento de las humanidades en los sistemas educativos, en favor de una lógica utilitarista centrada exclusivamente en el crecimiento económico.

Martha C. Nussbaum argumenta que esta orientación amenaza las bases mismas de la democracia, ya que disciplinas como la filosofía, la historia, la literatura, el arte o la música fomentan el pensamiento crítico, la empatía y la capacidad de imaginar la vida desde la perspectiva de otros. Estas habilidades son indispensables para formar ciudadanos comprometidos, capaces de diálogo y resistencia frente al autoritarismo.

Frente al paradigma económico, propone una educación para la libertad, donde el objetivo no sea solo formar trabajadores eficientes, sino seres humanos capaces de juicio autónomo, sensibilidad moral y participación cívica.

Algunas ideas clave de Sin fines de lucro:

- Las humanidades no son un lujo, sino una necesidad democrática.

- La educación debe resistir la "tiranía del mercado" y formar ciudadanos globales.

- El sistema educativo no puede reducirse a un modelo de inversión y rendimiento económico.

- El pensamiento crítico, la imaginación empática y la deliberación ética deben cultivarse desde la escuela para preservar la democracia.

Martha Craven Nussbaum (nacida en 1947, Nueva York) es una de las filósofas más influyentes del mundo contemporáneo. Doctora por Harvard, ha sido profesora en universidades como Brown, Harvard y la Universidad de Chicago, donde ejerce actualmente.

Su obra abarca campos como la filosofía política, la ética, el feminismo, la educación, el derecho y la teoría literaria. Es conocida por su colaboración con el economista Amartya Sen en el desarrollo del enfoque de las capacidades, que propone evaluar el desarrollo humano no por el PIB, sino por la posibilidad real que tienen las personas de llevar vidas plenas.

Entre sus libros más destacados se encuentran: Las fronteras de la justiciaEl cultivo de la humanidadLa fragilidad del bienCrear capacidadesLa monarquía del miedo,... Martha C. Nussbaum ha recibido numerosos premios internacionales y sigue siendo una voz crítica frente a la mercantilización de la vida pública.

“Teoría del Caballo Muerto” o seguir montado en el fracaso

En mi vida profesional muchas veces he sufrido esta sensación lacerante en largas reuniones de trabajo, que pueden verse representadas en la imágenes de este post. Se relata como la "Teoría del Caballo Muerto", un concepto humorístico basado en un supuesto proverbio de los nativos americanos de Dakota que dice: "Cuando descubras que estás montando un caballo muerto, la mejor estrategia es desmontar." 

En términos generales, se usa para ilustrar cómo las personas o las organizaciones a veces insisten en mantener estrategias, proyectos o ideas que claramente ya no funcionan, en lugar de abandonarlas y buscar alternativas más efectivas. La idea central es clara: si descubres que estás montando un caballo muerto, lo más sensato es bajarte y dejarlo. Sin embargo, en la práctica, muchas veces ocurre lo contrario. 

En lugar de abandonar el caballo muerto, se le amenaza y adoptan medidas absurdas como:

Sustituir el látigo, por uno más hiriente.
• Comprar una nueva silla de montar para el caballo.
• Mejorar la alimentación del caballo, a pesar de que está muerto.
Cambiar al jinete en lugar de abordar el problema real.
• Despedir al encargado de los caballos y contratar a alguien nuevo, esperando un resultado diferente.
• Organizar reuniones para discutir cómo aumentar la velocidad del caballo muerto o revivirlo.
Crear comités o equipos de trabajo para analizar el problema del caballo muerto desde todos los ángulos. Estos comités trabajan durante meses, levantan informes y finalmente concluyen lo obvio: el caballo está muerto.
• Justificar los esfuerzos comparando el caballo con otros caballos muertos similares, concluyendo que el problema fue una falta de entrenamiento.
• Proponer cursos de capacitación para el caballo, lo que implica aumentar el presupuesto.
Redefinir el concepto de "muerto" como discapacidad vital para convencerse de que el caballo aún tiene posibilidades.

Ejemplos de la Teoría del Caballo Muerto:

  1. Empresas que insisten en productos obsoletos: Una compañía de tecnología sigue invirtiendo en un producto que el mercado ya no quiere, en lugar de innovar o adaptarse a nuevas tendencias.

  2. Métodos de enseñanza ineficaces: Un profesor o todo un sistema educativo sigue usando el mismo material y método de enseñanza de hace 30 años, a pesar de que los estudiantes ya no responden bien a esa forma de aprendizaje.

  3. Relaciones personales o laborales desgastadas: Una persona se aferra a una relación que claramente no funciona, creyendo que eventualmente mejorará sin tomar medidas reales.

  4. Políticas gubernamentales ineficientes: Un gobierno sigue aplicando una política económica o social que ha demostrado ser ineficaz, en lugar de buscar soluciones alternativas.

  5. Procesos burocráticos anticuados: Una empresa u oficina gubernamental sigue usando papeleo excesivo y procedimientos complicados en la era digital, solo porque "siempre se ha hecho así".

Conclusión: La "Teoría del Caballo Muerto" nos recuerda la importancia de reconocer cuándo algo ya no funciona y tener la valentía de cambiar de rumbo en lugar de seguir gastando recursos, tiempo y energía en algo que no tiene futuro. 🚀