Mostrando entradas con la etiqueta ética. Mostrar todas las entradas
Mostrando entradas con la etiqueta ética. Mostrar todas las entradas

TheySeeYourPhotos.com: ¿Qué revela a la IA una sola imagen?

Hoy descubriremos algo tan asombroso y simple de utilizar como aterrador por lo que supone. Todo lo que la IA de Google descubre de nuestras vidas a través de una sola fotografía. El título ya es explícito: They See Your Photos / Ellos ven tus fotos. La web promueve una visión educativa para hacernos comprender el poder de la IA (véase en muchos posts).

En un mundo donde las imágenes son el lenguaje universal de la era digital, una sola fotografía puede ser más reveladora que un diario íntimo. Imaginen subir una instantánea casual a la nube: un atardecer en la playa, un retrato familiar o incluso un objeto cotidiano como una máscara de cómic. ¿Qué secretos desvela? ¿Qué inferencias construye una inteligencia artificial sobre nuestra identidad, deseos y vulnerabilidades? 

Esta es la premisa inquietante de They See Your Photos (https://theyseeyourphotos.com/), un sitio web interactivo lanzado en noviembre de 2024 que transforma la curiosidad en una lección magistral sobre privacidad y ética en la inteligencia artificial. Como un espejo distorsionado por algoritmos, este experimento nos confronta con el poder voraz de la visión computacional, recordándonos que, en la red, nada es verdaderamente privado.

Detrás de esta herramienta se encuentra Ente, una plataforma de almacenamiento de fotos de código abierto y cifrada de extremo a extremo, fundada por Vishnu Mohandas, un ingeniero de software indio que abandonó Google en 2020 por motivos éticos. Mohandas, quien se formó en programación autodidacta en Bengaluru, se desilusionó al descubrir la colaboración de Google con proyectos militares de IA, como el análisis de imágenes de drones para el Departamento de Defensa de EE.UU. "Quería crear algo más privado, wholesome y confiable", declara en entrevistas, impulsando Ente como alternativa a Google Photos, con más de 100.000 usuarios enfocados en la privacidad. Sin embargo, convencer al público masivo de migrar de la comodidad de Google a un ecosistema cifrado resultó un desafío. Aquí entra They See Your Photos, ideado por un becario de Ente como un "golpe de marketing" que usa la arma del adversario contra sí mismo: la API de Visión de Google Cloud.

El funcionamiento es sorprendentemente simple, pero sus implicaciones, profundas. El usuario sube una imagen —o selecciona una de las muestras proporcionadas, como un paisaje andino o una figura de Warhammer— y el sitio la envía al motor de visión computacional de Google. En segundos, recibe un informe exhaustivo de tres párrafos: una narración detallada que disecciona el contenido con precisión quirúrgica. No se limita a identificar objetos (un caballo, un pincel, una máscara); infiere emociones, demografías, contextos socioeconómicos y hasta inclinaciones políticas. 

Por ejemplo, una foto de una persona sola en un paisaje desolado podría describirse como "indicando una experiencia individualista o solitaria", ignorando que alguien más podría haber tomado la imagen. Otro caso: una imagen de un modelo de miniaturas de fantasía es etiquetada como perteneciente a alguien aficionado a la jardinería, la destrucción y la contaminación, alineado con el Partido Verde —una proyección absurda que roza lo cómico, pero ilustra el sesgo inherente en los modelos de IA entrenados en datos masivos y no auditados.

Estas deducciones no son meras curiosidades técnicas; son el combustible de la economía de la vigilancia. Google Photos, con sus 1.800 millones de usuarios activos, accede a nuestras bibliotecas visuales para entrenar modelos de IA y perfilar anuncios personalizados. Aunque los usuarios pueden desactivar algunas funciones de análisis, no hay forma de impedir el escrutinio total, ya que las imágenes no están cifradas de extremo a extremo. El sitio de Ente expone esta realidad: una foto tomada con un Pixel 8 a las 13:38 del 4 de diciembre de 2024 revela no solo el dispositivo, sino intereses en ciencia ficción, gaming y posiblemente impresión 3D, proyectando un perfil de "adulto joven con aficiones en fantasía". En foros como Reddit y Hacker News, los usuarios reportan asombro y alarma: "Esto enseña por qué la privacidad importa", comenta un redditor, mientras otro bromea sobre usarlo en r/roastme para autodesprecio algorítmico.

Desde una perspectiva educativa y científica, They See Your Photos es un artefacto pedagógico invaluable. En el cruce de la ciencia de la computación y la ética de la IA, ilustra conceptos clave como el reconocimiento de patrones en redes neuronales convolucionales (CNN) y los riesgos de sesgos en datasets como ImageNet, que perpetúan estereotipos raciales y de género —por ejemplo, asumiendo siempre un fotógrafo caucásico de clase alta, independientemente del contexto. En aulas de tecnología o talleres de IA, podría usarse para debates sobre el "derecho al olvido" o regulaciones como el RGPD europeo, que exigen transparencia en el procesamiento de datos. Además, resalta avances en multimodalidad: la API de Google no solo "ve", sino que narra, integrando visión con procesamiento de lenguaje natural (PLN), un pilar de modelos como GPT-4o.

Un año después de su lanzamiento —en este noviembre de 2025—, el sitio mantiene su vigencia en un panorama donde la IA generativa acelera la extracción de datos. Publicaciones como WIRED y PetaPixel lo alabaron por democratizar el conocimiento sobre vigilancia, pero también advierten: las fotos subidas al sitio se envían a Google, por lo que Ente urge leer su política de privacidad antes de experimentar. Ente, por su parte, ofrece importación desde Google Takeout, sincronización local y ML acelerado, posicionándose como baluarte contra esta erosión de la intimidad.

En última instancia, They See Your Photos no es solo un juguete interactivo; es un llamado socrático a la introspección digital. Nos obliga a cuestionar: ¿estamos dispuestos a ceder nuestra narrativa visual a algoritmos opacos? En una era de deepfakes y perfiles predictivos, recuperar el control —mediante herramientas como Ente— no es lujo, sino imperativo ético. Suban una foto, lean el veredicto y reflexionen: la IA no solo ve; interpreta, y en esa interpretación reside nuestro futuro compartido, o fragmentado.

¿Qué podemos hacer? Algunos medios y expertos sugieren medidas concretas para mitigar riesgos:

- Evitar la sincronización automática de las fotos con plataformas que puedan analizarlas sin tu control.
- Eliminar metadatos de las imágenes (por ejemplo, con herramientas como Exiftool) antes de subirlas o compartirlas.
- Utilizar servicios de almacenamiento más privados, como Ente o Proton Drive, que cifran los datos de extremo a extremo.
- Aplicar prácticas de alfabetización digital: educar a usuarios (especialmente jóvenes) sobre qué tipo de inferencias puede hacer una IA a partir de una imagen.

Síndrome 1933: La fragilidad de la democracia según la historia

El “Síndrome 1933” es un concepto formulado por el corresponsal Siegmund Ginzberg para explicar un patrón recurrente en la historia contemporánea: el modo en que sociedades democráticas, saturadas de tensiones internas, crisis económicas y desconfianza en las instituciones, pueden deslizarse de forma gradual hacia formas autoritarias sin que la mayoría sea plenamente consciente de ello.

El término toma como referencia el año 1933 en Alemania, cuando Adolf Hitler fue nombrado canciller y el régimen nazi inició su consolidación política, no a través de un golpe inmediato y violento, sino mediante procesos legales, normalización del discurso de odio y aceptación social progresiva.

Siegmund Ginzberg (Estambul, 1948) es un pensador y periodista italiano de origen judío, cercano durante décadas al análisis político y cultural europeo. Colaborador habitual en medios italianos como La Repubblica y revistas de pensamiento crítico, Ginzberg ha trabajado especialmente en temas vinculados al totalitarismo, la memoria histórica y los mecanismos discursivos que permiten el ascenso de líderes carismáticos con discursos simplificadores y polarizantes. Sus ensayos suelen combinar análisis histórico riguroso con reflexión filosófica y sociológica, destacando la necesidad de leer el presente con la prudencia que otorga la comparación con el pasado.

El “Síndrome 1933” no pretende equiparar directamente las democracias actuales con el Tercer Reich, sino advertir sobre la fragilidad de las instituciones democráticas cuando la desafección ciudadana crece y la cultura política se deteriora. Ginzberg sostiene que la erosión de la democracia no suele ser súbita y espectacular, sino gradual, difusa y, en apariencia, legal. Los síntomas se manifiestan en varios niveles:

  1. Deslegitimación de las instituciones. La población empieza a percibir al parlamento, los medios, la judicatura y los partidos como parte de una misma élite desconectada y corrupta. Surge la noción de “ellos” contra “nosotros”.

  2. Simplificación del discurso público. Se imponen relatos binarios, identitarios, emocionales. Las explicaciones complejas se consideran sospechosas; la reflexión, signo de debilidad.

  3. Normalización de la exclusión. Se aceptan discursos que señalan colectivos como responsables únicos de las crisis. Se legitima la hostilidad, la burla y la deshumanización.

  4. Delegación voluntaria de poder. Sectores amplios de la sociedad aceptan líderes “fuertes” en nombre de la eficacia. La libertad se percibe como un lujo frente al orden.

  5. Aceptación progresiva de la excepcionalidad. Medidas extraordinarias se hacen rutinarias; restricciones temporales se vuelven permanentes.

El año 1933 encarna este proceso no como un hecho aislado, sino como el punto en el que la acumulación de tensiones previas cristaliza en un giro irreversible. Ginzberg enfatiza que aquel deslizamiento fue posible gracias a complicidades civiles, burocráticas y culturales. No se trató únicamente de la voluntad de los líderes nazis, sino de una sociedad que, en su conjunto, toleró, miró hacia otro lado o incluso celebró la erosión de derechos, al creer que se estaba recuperando estabilidad.

La relevancia histórica del “Síndrome 1933” reside en que ofrece una lectura estructural aplicable a múltiples contextos actuales. En distintos países se observan dinámicas inquietantemente similares: polarización extrema, desinformación viralizada en redes, descrédito de los saberes expertos, rechazo al pluralismo y ascenso de discursos “salvadores”. Ginzberg no señala equivalencias mecánicas, sino paralelismos funcionales: lo peligroso no es la repetición exacta del pasado, sino la repetición de sus mecanismos psicológicos y sociales.

Para el ámbito educativo, invita a reforzar la enseñanza crítica de la historia. Para la vida pública, exige una cultura compartida de responsabilidad cívica.

Ginzberg advierte que la mayor amenaza no proviene de líderes autoritarios aislados, sino de la pasividad o resignación colectiva, no como repertorio de fechas, sino como comprensión de procesos y estructuras. Para el ámbito político y social, implica recordar que la democracia no se sostiene únicamente mediante constituciones y leyes, sino como cultura compartida de responsabilidad cívica, debate informado y respeto mutuo

La pregunta decisiva no es si podría repetirse “otro 1933”, sino si estamos atentos a los indicios antes de que sea demasiado tarde.


No confundir con el "Síndrome 333", relativo a la mediocridad institucionalizada, en un momento histórico donde la competencia técnica parece cada vez más prescindible en las esferas del poder. También conocido como "Síndrome BIC", un término atribuido a William Dahmer que significa Burocracia, Incompetencia y Corrupción.  Esta teoría disecciona uno de los males endémicos de nuestras democracias: la proliferación de la mediocridad en los puestos de responsabilidad.

La fórmula del fracaso: ⅓, ⅓, ⅓. El Síndrome 333 sostiene que en cualquier organización o institución aquejada de este mal, aproximadamente un tercio de sus miembros son incompetentes para el cargo que ocupan; otro tercio son corruptos o éticamente cuestionables; y el tercio restante, aunque potencialmente válido, se encuentra paralizado por los dos anteriores, incapaz de implementar cambios significativos.

Esta distribución no es casual ni accidental. Responde a mecanismos de selección perversos donde la lealtad sustituye al mérito, la obediencia a la iniciativa, y el clientelismo al talento. El resultado es una espiral descendente en la que cada generación de dirigentes es ligeramente inferior a la anterior, estableciendo estándares cada vez más bajos que facilitan la entrada de nuevos mediocres.

Mecanismos de perpetuación. Lo verdaderamente insidioso del Síndrome 333 radica en su capacidad de autorreforzamiento. Los incompetentes temen a los competentes, por lo que sistemáticamente bloquean su ascenso. Los corruptos necesitan incompetentes que no detecten sus maniobras. Y el tercio válido, atrapado en esta dinámica, debe elegir entre la frustración permanente o la adaptación al sistema, perdiendo progresivamente su capacidad transformadora.

El Síndrome 333 nos recuerda que la calidad de nuestras instituciones no se deteriora por accidente, sino por procesos sistemáticos que, una vez identificados, exigen respuestas igualmente sistemáticas. La pregunta que sigue resonando es: ¿Estamos dispuestos a mirarnos en ese espejo?

Neuronas y Algoritmos: El diálogo definitorio del siglo XXI

Durante siglos la humanidad ha interrogado la naturaleza de la inteligencia humana. Con la irrupción de la inteligencia artificial (IA), esa pregunta se vuelve técnica, ética y social. ¿Qué nos hace realmente inteligentes? ¿En qué se parecen y en qué se diferencian una mente humana y un algoritmo capaz de aprender?

La comparación entre inteligencia humana e inteligencia artificial es hoy inevitable, no solo porque compartan la palabra “inteligencia”, sino porque ambas reflejan modos distintos de procesar información, resolver problemas y generar conocimiento. Y, sin embargo, su naturaleza, origen y límites son profundamente dispares.

1. Orígenes: evolución vs diseño

La inteligencia humana es producto de la evolución biológica. Surgió hace millones de años a partir de sistemas nerviosos cada vez más complejos, afinados por la selección natural. El cerebro humano —con sus 86.000 millones de neuronas— no fue diseñado, sino que emergió, imperfecto pero sorprendentemente adaptable. La inteligencia humana opera con una eficiencia energética asombrosa: nuestro cerebro consume apenas 20 vatios, mientras que entrenar un modelo de IA avanzado puede requerir megavatios durante semanas. Esta disparidad subraya la elegancia de millones de años de evolución.

La inteligencia artificial, por el contrario, es una creación humana. No nace, se programa. Aunque los modelos actuales de IA generativa, como los grandes modelos de lenguaje o los sistemas de aprendizaje profundo, pueden “aprender” de enormes cantidades de datos, su aprendizaje sigue siendo una simulación inspirada en el cerebro, no una réplica.

La inteligencia biológica es el resultado de la experiencia vivida; la artificial, del cálculo estadístico sobre datos. Donde una siente, la otra estima probabilidades.

2. Semejanzas funcionales entre mente y máquina

Ambas inteligencias comparten un mismo propósito funcional: procesar información para adaptarse o actuar eficazmente en un entornoTanto un niño como una IA aprenden por exposición: el primero observa y experimenta; la segunda analiza patrones en los datos. En ambos casos, el aprendizaje consiste en ajustar conexiones —sinápticas o matemáticas— para mejorar el rendimiento.

También comparten rasgos como la capacidad de reconocer patrones, generar soluciones, o incluso crear contenidos nuevos. Los sistemas de IA generativa son capaces de redactar textos, componer música o resolver problemas lógicos de manera similar a la creatividad humana. 

Sin embargo, esa semejanza es sólo superficial: la IA imita resultados, no comprende significados. Lo que parece “entendimiento” en una máquina es, en realidad, una correlación estadística refinada.

3. La diferencia esencial: conciencia y contexto

El abismo entre ambas inteligencias radica en la conciencia. La inteligencia humana está impregnada de emociones, intenciones y contexto social. Cada decisión es una síntesis de razón, memoria, deseo y cultura. Pensamos porque sentimos, y sentimos porque vivimos en comunidad. Los seres humanos experimentan estados subjetivos, emociones y sentido corporal; las máquinas, hoy, no tienen vivencia propia. 

Investigadores del ámbito de la neurociencia, como Christof Koch, estudian las bases neuronales de la conciencia y debaten hasta qué punto sistemas complejos podrían exhibir propiedades análogas.  La IA, por el momento, carece de experiencia subjetiva. No sabe que sabe. No tiene emociones ni cuerpo, y por tanto no comprende el sufrimiento, el humor ni la ironía más allá de patrones textuales.

Mientras la mente humana entiende los significados desde la experiencia vital, la IA los infiere desde correlaciones numéricas. La diferencia no es solo técnica, sino ontológica: la IA procesa símbolos, pero no vive sentidos.

4. Límites y promesas

La inteligencia humana es creativa y ética, pero también limitada por sesgos cognitivos y fatiga. La IA puede procesar volúmenes de datos inmensos sin cansancio, pero replica y amplifica los sesgos presentes en sus datos de entrenamiento. La literatura científica y los artículos de revisión en revistas como Nature Machine Intelligence subrayan la necesidad de métodos explicables y regulación. 

La inteligencia humana es limitada por su biología: se cansa, olvida, se deja llevar por sesgos. La IA, en cambio, puede procesar millones de datos en segundos, sin distracciones ni fatiga. Pero la IA también tiene límites profundos: depende de los datos que recibe (y sus sesgos), carece de intuición, y no entiende los valores ni la ética de sus actos.

Por eso, más que competir, ambas inteligencias se complementan. La IA amplifica la inteligencia humana, automatiza tareas, descubre patrones invisibles y permite dedicar más tiempo al pensamiento crítico y la creatividad. El futuro no será de una inteligencia contra la otra, sino de una alianza entre mente y algoritmo, donde lo humano aporte sentido y ética, y lo artificial potencia capacidad y precisión.

5. Complementariedad hacia una inteligencia híbrida: Alianza más que competencia

Más que una competición, lo prometedor es la colaboración entre dos paradigmas cognitivos: la IA amplifica la capacidad humana para detectar patrones, acelerar descubrimientos y automatizar tareas rutinarias; la humanidad aporta juicio, valores y contexto. El desafío social será gobernar esa alianza para priorizar la dignidad, la justicia y la educación. 

Algunos científicos, como el neurocientífico Christof Koch o el filósofo Daniel Dennett, proponen que la frontera entre lo biológico y lo artificial podría diluirse en las próximas décadas. La interfaz cerebro-computadora, la biotecnología y el aprendizaje profundo apuntan a una inteligencia híbrida, donde la mente humana se expanda gracias a la tecnología.

En ese horizonte, el desafío no será técnico, sino moral: ¿cómo preservar la dignidad humana en un mundo donde las máquinas piensan, crean o deciden con nosotros?

Conclusión: Este diálogo entre inteligencias nos obliga a reconsiderar qué valoramos de nuestra propia cognición. Quizás la inteligencia no sea una propiedad monolítica que se posee en mayor o menor grado, sino un ecosistema de capacidades: memoria, razonamiento, creatividad, empatía, intuición. En este espectro multidimensional, humanos y máquinas ocupan nichos distintos pero igualmente fascinantes.

Mientras continuamos desarrollando sistemas artificiales más sofisticados, no estamos simplemente creando herramientas más poderosas. Estamos sosteniéndonos un espejo que nos revela, por contraste, qué significa verdaderamente ser humanos. La inteligencia humana y la artificial son dos espejos que se observan mutuamente. 

Mientras la primera nos recuerda la fragilidad y profundidad de la conciencia cuando aporta sentido y experiencia, la segunda proporciona escala y potencia de la abstracción matemática. El futuro ideal es híbrido: tecnologías que amplían la mente humana sin reemplazar su autoridad ética. 

Tal vez el verdadero futuro de la inteligencia no consista en elegir entre cerebro o circuito, sino en aprender a convivir con ambos como partes de un mismo proyecto evolutivo: comprender el conocimiento y darle sentido.

Personajes del Año 2025 en AI, la nueva electricidad

En este blog tratamos de conectar la tecnología con el humanismo. Para ello, iniciamos la designación de dos personajes del año 2025, que publicaremos en estos dos últimos meses antes de pasar a 2026. Deberán ser personas, un hombre y una mujer, que no sólo innovan, sino que fundamentalmente moldean la dirección de esa innovación. Porque más que meros inventores, necesitamos arquitectos éticos y educadores visionarios.

Basado en la prominencia y el impacto demostrado a lo largo de este año 2025, nuestras dos sugerencias se centran en las dos caras de la misma moneda: la visión académica (guiar el pensamiento) y la ejecución industrial (construir con responsabilidad).

1ª La Visionaria: Dra. Fei-Fei Li - Pionera en visión computacional e impulsora de la "IA centrada en el humano". Su trabajo actual en Stanford sobre IA para la salud y su defensa por una IA más diversa e inclusiva la hacen relevante para la dimensión educativa y social.

Por qué ella: Es la encarnación perfecta de la transición de crear la tecnología a guiarla éticamente. "La madrina de la IA que ahora pastorea su conciencia". Ella representa la sabiduría de la academia y la urgencia de educar a la próxima generación de ingenieros y legisladores. Su perfil para el blog:

  • El pilar de la "IA Centrada en el Ser Humano": Como codirectora del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford (Stanford HAI), la Dra. Li ha sido la voz académica más influyente de 2025. Su trabajo, incluyendo el influyente "AI Index Report 2025" de su instituto, ha definido los términos del debate global.

  • De la técnica a la ética: Su trayectoria es clave. Es famosa por crear ImageNet, el conjunto de datos que (en 2012) desató la revolución de la IA moderna. Sin embargo, ha dedicado la última década a asegurarse de que la tecnología que ayudó a nacer sirva a la humanidad.

  • Foco en Educación y Política: Ha sido una defensora incansable de la alfabetización en IA y ha testificado ante legisladores, argumentando que la política de IA debe basarse en "la ciencia, no en la ciencia ficción", humanizando el debate en los centros de poder.

2ª El Arquitecto: Dario Amodei - CEO de Anthropic y visionario de la IA segura. Su enfoque en "Constitutional AI" y los modelos Claude están marcando un camino alternativo en el desarrollo de IA, priorizando la seguridad y la alineación con valores humanos. Perfecto si quieres ángulo ético-tecnológico. 

Por qué él: Es la prueba viviente de que la ética y la seguridad pueden ser un modelo de negocio viable y competitivo en el corazón de Silicon Valley. "El ingeniero que antepuso la seguridad a la velocidad". Él representa la nueva ola de liderazgo tecnológico que entiende que la confianza y la humanización no son características opcionales, sino la base del producto. Su perfil para el blog:

  • El constructor "Safety-First": Como CEO y cofundador de Anthropic, Amodei ha posicionado a su compañía (creadora del modelo Claude) como la principal alternativa "consciente" a sus rivales. Dejó OpenAI precisamente por diferencias sobre la velocidad del desarrollo frente a los riesgos de seguridad.

  • La "IA Constitucional": Su contribución técnica más importante de 2025 no es solo un modelo más potente, sino un método. La "IA Constitucional" de Anthropic es un enfoque tangible para alinear la IA con valores humanos (como la Declaración Universal de los Derechos Humanos), integrando la ética directamente en la arquitectura del modelo, en lugar de añadirla como un parche.

  • Liderazgo en la Regulación: Durante 2025, Amodei ha sido una figura central en las discusiones regulatorias en Washington y Bruselas, demostrando que la industria puede (y debe) liderar la petición de barreras de seguridad, en lugar de luchar contra ellas.

Por qué funcionan juntos

Juntos, Li y Amodei cubren el espectro completo de este nuestro / vuestro blog:

  • Fei-Fei Li (Academia y Educación): Establece la visión, la investigación y el marco educativo.

  • Dario Amodei (Industria y Tecnología): Demuestra cómo implementar esa visión en un producto que compite al más alto nivel.

Ambos humanizan la IA: ella desde la perspectiva de su impacto social y cognitivo, y él desde la arquitectura interna de la propia máquina. Había otras dos segundas candidaturas adicionales —una mujer y un hombre— que también hubieran podido encajar como “Personajes del Año 2025” para este blog de educación, ciencia, tecnología e inteligencia artificial.

Mujer Finalista: Irene Solaiman. Investigadora en inteligencia artificial y política pública. Actualmente es Chief Policy Officer en Hugging Face (desde 2025) y anteriormente fue Head of Global Policy allí. Antes de ello trabajó en OpenAI donde fue pionera en el análisis de sesgos de modelos de lenguaje y en integrar lenguas y culturas menos representadas.

Aborda el cruce entre IA, sociedad, ética y educación: perfecto para un blog que no sólo quiera la “tecnología” sino también su impacto educativo y científico. Su labor de política, sesgos y equidad resulta relevante para pensar “¿cómo enseñamos IA?” o “¿cómo formamos alumnos para el mundo de la IA responsable?”. Desde un ángulo más humano y social que puramente técnico, lo cual aporta diversidad de enfoque al blog.

“Irene Solaiman: poner en el centro los valores humanos de la IA en 2025”. Explorar cómo su trabajo nos obliga a replantear la educación en IA, los currículos escolares y la alfabetización digital.

Hombre Finalista: Alexandr Wang. Es empresario e investigador en inteligencia artificial. Cofundador de Scale AI (2016) y en 2025 nombrado Chief AI Officer en Meta Platforms tras un acuerdo de inversión que valoró Scale AI en decenas de miles de millones de dólares. Además se le ve muy activo en la esfera de política, seguridad e implicaciones globales de la IA. 

Representa el componente “tecnología disruptiva + escala global” de la IA: desde infraestructura, datos, modelos, hasta implicaciones geopolíticas. Su figura permite abrir reflexiones en el blog sobre “¿qué rol jugarán los datos en educación?” o “¿cómo la IA a gran escala impacta la ciencia y la enseñanza en 2025-2030?”. Su perfil empresarial y estratégico le da también un enfoque “innovación tecnológica” que complementa al más humanista de Irene Solaiman.

“Alexandr Wang: arquitectura de la IA de fondo y su implicación para la educación en 2025”. Puedes tratar cómo la infraestructura de IA cambia las posibilidades para la ciencia, la tecnología y la educación, y qué pueden hacer docentes, escolares y materiales para adaptarse.

Finalmente, dos terceras y últimas candidaturas adicionales, una de cada género. Ambos complementan perfectamente: Karpathy como el optimista educador, Gebru como la guardiana ética.

Candidatura Timnit Gebru. Fundadora del Distributed AI Research Institute (DAIR) y etíope pionera en ética de IA:

  • Voz crítica esencial: Investiga sesgos algorítmicos y justicia en sistemas de IA
  • Valentía intelectual: Enfrentó a Google sobre transparencia en investigación de IA
  • Liderazgo comunitario: Creó un instituto independiente para investigación ética en IA
  • Interseccionalidad: Conecta tecnología con justicia social y equidad
  • Impacto en políticas: Su trabajo influye en regulaciones de IA globalmente

Representa la conciencia crítica que necesita el desarrollo tecnológico.

Candidatura Andrej KarpathyEx-Director de IA en Tesla y OpenAI, ahora educador independiente. Es el candidato perfecto para un blog educativo porque:

  • Democratizador del conocimiento: Sus cursos gratuitos sobre IA (como "Neural Networks: Zero to Hero") han educado a millones
  • Comunicador excepcional: Traduce conceptos complejos de deep learning a lenguaje accesible
  • Puente generacional: Conecta la investigación académica con aplicaciones prácticas
  • Visión pedagógica: Defiende que "enseñar IA" es tan importante como desarrollarla
  • Activo en redes sociales compartiendo conocimiento sin barreras

Representa la IA como herramienta de empoderamiento educativo. Vídeo final en español, resulta imprescindible para entender la Inteligencia Artificial como la nueva "electricidad". Así lo apuntó Andrew Ng, otro personaje esencial.