Hay muchos motivos para acercarse a conversar y debatir en el XV Encuentro Anual de GetxoBlog en BiscayTIK, pero reseñamos algunas por la oportunidad del momento crítico en el que vivimos:
1º Unos tiempos convulsos donde los blogs suenan a prehistoria ante la Inteligencia Artificial General o Fuerte (AGI). ¿Nos hemos quedado los y las bloggers en el rol del Diario de Merer de hace 4.500 años y apenas descubierto en 2013?
En los albores del advenimiento de era de la Singularidad Tecnológica, quizá ya para 2025 ó 2035, en un universo donde el debate donde cada quien debe ubicares como "decels” (desaceleradores de la AGI), o “doomers" (fatalistas, catastrofistas o agoreros), “safetyist" (seguridadistas, primitivistas) o aceleracionistas ante la p(doom) o la probabilidad de extinción total,...
¿Por qué hay que decantarse entre Sam Altman (de OpenAI a Microsoft) o con Emmett Shear (nuevo CEO de OpenAI)?
¿Cuál es nuestra posición sobre si avanzar hacia una super inteligencia artificial? Caben diversas opciones, pero la menos aceptable es apostar por un control autoritario justificado por la excusa barata del "bien común". Esa era la lógica de Ted Kaczynski, Unabomber: Bombardear los centros de datos si no cumplen las restricciones a la computación.
2º Una época de miedos imaginarios o no, de histeria colectiva o responsabilidad prospectiva,... En definitiva un momento donde las probabilidades de supervivencia vuelven a esgrimirse y socializarse. Se recuerda que muchos expertos estimaron que la probabilidad total de extinción humana -p(doom)- en el siglo XXI está entre el 1% y el 20%. En 2008, una encuesta informal de expertos sobre diferentes riesgos catastróficos globales en la Conferencia Global de Riesgo Catastrófico en la Universidad de Oxford sugirió un 19% de posibilidades de extinción humana para el año 2100. Y nos lo resumen así, citando las posibles motivos de extinción de la humanidad.
- Causas de origen tecnológico como las armas nucleares y biológicas, ya sean utilizadas en la guerra o en el terrorismo, quizá por un invierno nuclear resultante. O por los riesgos de la biotecnología y las pandemias naturales. Y aquí aparece el nuevo riesgo de una entidad superinteligente podrían, sin darse cuenta, darle objetivos que la lleven a aniquilar a la raza humana. Una encuesta de expertos en inteligencia artificial estimó que la probabilidad de que el aprendizaje automático a nivel humano tenga un efecto a largo plazo "extremadamente malo (por ejemplo, la extinción humana)" en la humanidad es del 5%. Incidentes incontrolados de nanotecnología (plaga gris / grey goo) que resultan en la destrucción del ecosistema terrestre (ecofagia).
O la creación de un microagujero negro en la Tierra durante el curso de un experimento científico u otros accidentes científicos poco probables en la investigación de la física de alta energía, como la transición de fase de vacío o incidentes de extraños. Hubo preocupaciones sobre el Gran Colisionador de Hadrones en el CERN, ya que se teme que la colisión de protones a una velocidad cercana a la de la luz resulte en la creación de un agujero negro. O por la ingeniería genética que creasen, además de los en humanos normales y una nueva especie de post-humanos (al fusionar humanos con sistemas tecnológicos).
- Causas de origen ecológico como el cambio o mejor la emergencia climática, la contaminación del aire, el agua, los suelos, temperaturas incompatibles con la supervivencia humana,... O una pandemia o la actividad humana ha desencadenado un evento de extinción a menudo conocido como la sexta "extinción masiva", por la destrucción de la biodiversidad y los ecosistemas,... O la sobrepoblación o o las bajas tasas de natalidad por la disminución de la población debido a la preferencia por menos niños. Si se supone que la demografía del mundo en desarrollo se convierte en demografía del mundo desarrollado, y si se extrapola esta última, algunas proyecciones sugieren una extinción antes del año 3000. O por una erupción supervolcánica,...
- Causas de origen extraterrestre, como el impacto de un asteroide u objeto cercano a la Tierra, o los efetos de las supernovas, los estallidos de rayos gamma, las erupciones solares y los rayos cósmicos, que podrían ser letales para los humanos en la Tierra. En todo caso, la Tierra se volverá inhabitable de forma natural debido a la evolución estelar del Sol, dentro de unos mil millones de años. Porque el brillo del Sol puede aumentar como resultado de la escasez de hidrógeno, y el calentamiento de sus capas externas puede hacer que los océanos de la Tierra se evaporen, dejando solo formas menores de vida. Pero mucho antes de esta fecha, el nivel de dióxido de carbono en la atmósfera será demasiado bajo para sustentar la vida de las plantas, destruyendo la base de las cadenas alimenticias. Aproximadamente entre 7 y 8 mil millones de años, después de que el Sol se haya convertido en un gigante rojo, la Tierra probablemente será engullida por un Sol en expansión. Descartamos la invasión de extraterrestres militarmente superiores, un escenario puramente del ámbito de la ciencia ficción, que parece sumamente improbable.
Ante esta panorama desolador, habrá que debatir de longevidad, tanto a escala planetaria como individual o comunitaria (Mesa 1ª de GetxoBlog). Y serán necesarios cauces de la sociedad civil especializados en transmitir conocimiento desde una posición equilibrada (Mesa 3ª) y lejos de intereses comerciales (chiste adjuntado).
3º Una época que requiere profundas adaptaciones de los prescriptores y referentes de la información. ¿Cómo ha de ser el periodismo de los medios de comunicación y el de la ciudadanía en el ciberespacio,...
El caso del nuevo presidente electo en Argentina, Javier Milei. Con una actuación de histrión en una carrera más mediática que política o económica, ha sido elegido con un alto respaldo para privatizar la educación y la sanidad, reducir el 90% los impuestos, eliminar el Estado de Bienestar, legalizar las armas,... ¿Cómo se llega a algo así?
0 comments:
Publicar un comentario