Anda di halaman 1dari 4

Cules son las ms grandes amenazas globales para la humanidad?

Estamos
al borde de nuestra propia inesperada extincin?

Un equipo internacional de cientficos, matemticos y filsofos que trabajan en el


Instituto del Futuro de la Humanidad de la Universidad de Oxford est investigando
cul es el mayor peligro para la supervivencia del Hombre como especie.

En el documento "Riesgo existencial como prioridad global" argumenta que los


dirigentes internacionales tienen que prestarle mucha atencin a una serie de
amenazas.

El director del instituto, el filsofo sueco Nick Bostrom, advierte que lo que est en
juego no puede ser ms importante: si nos equivocamos, ste puede ser el ltimo siglo
de la humanidad.

Las buenas noticias

Cules son los mayores peligros?

Image captionSe estima que el 99% de


las especies que han existido se han extinguido, como el dodo.

Empecemos por lo alentador.

Las pandemias y los desastres naturales pueden causar colosales y catastrficas


prdidas de vida, pero Bostrom cree que no acabaran con la humanidad.

La especie humana ya sobrevivi muchos miles de aos a enfermedades, hambrunas,


inundaciones, depredadores, persecuciones, terremotos y cambios climticos. As que
la probabilidad est a nuestro favor.

Por otro lado, en el marco temporal de un siglo, califica el riesgo de extincin por el
impacto de un asteroide o una sper explosin volcnica como "extremadamente
bajo".
Respecto a conflictos blicos, incluso las prdidas de vida sin precedentes
autoinflingidas del siglo XX, con dos guerras mundiales, no lograron frenar el aumento
de la poblacin global.

Una guerra nuclear podra ocasionar una horrible destruccin, pero el equipo de
expertos calcula que suficientes individuos podran sobrevivir como para permitir que
la especie subsista.

Uff!

Si ese es el consuelo para hacernos sentir bien... de qu nos tenemos que preocupar
entonces?

ste es el primer siglo en la historia del mundo en el que el ms grande riesgo


viene de la humanidadLord Rees, astrnomo real britnico

Bostrom seala que hemos entrado en una nueva clase de era tecnolgica con el
potencial de desafiar nuestro futuro como nunca antes. Son "amenazas sobre las que
no tenemos historial de supervivencia".

Comparndolo con un arma peligrosa en manos de un nio, le dijo a la BBC que el


avance en la tecnologa ha rebasado nuestra capacidad de controlar las posibles
consecuencias.

Experimentos en reas como biologa sinttica, nanotecnologa e inteligencia artificial


se estn precipitando hacia el territorio de lo accidental e imprevisto.

Una por una

La biologa sinttica, en la que la biologa se encuentra con la ingeniera, promete


importantes beneficios mdicos. No obstante, a Bostrom le inquietan las secuelas
inesperadas de la manipulacin de las fronteras de la biologa humana.

Image captionLa creacin de nuevos


organismos puede tener efectos secundarios ecolgicos desconocidos.

Sen O'Heigeartaigh, un genetista del instituto y experto en evolucin molecular,


desconfa de las buenas intenciones mal informadas, pues en los experimentos se
hacen modificaciones genticas, desmantelando y reconstruyendo las estructuras
genticas.
"Lo ms probable es que no se propongan hacer algo daino", apunta, pero subraya
que siempre existe el peligro de que se dispare una secuencia de eventos no
anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.

"Estamos desarrollando cosas que pueden resultar profundamente mal", declara


O'Heigeartaigh en entrevista con la BBC.

La nanotecnologa, trabajar a nivel molecular o atmico, tambin podra tornarse en


algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribi
que los gobiernos futuros enfrentarn el gran reto de controlar y restringir su mal uso.

El poder de lo pequeo

La manera en la que la inteligencia artificial interactuar con el mundo exterior es otro


de los temores del eclctico grupo de expertos reunidos en Oxford. Esa "inteligencia"
informtica puede ser una herramienta poderosa para la industria, medicina,
agricultura o el manejo de la economa.

Image captionSe teme una explosin


descontrolada de inteligencia artificial.

Pero tambin es completamente indiferente a cualquier perjuicio fortuito.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una "explosin


de inteligencia" en la que el poder acelerado de las computadoras se vuelve menos
predecible y controlable.

"La inteligencia artificial es una de las tecnologas que pone ms y ms poder en


paquetes ms y ms pequeos", le dice a la BBC Dewey, quien antes trabaj en
Google.

As como con la biotecnologa y la nanotecnologa, "se pueden hacer cosas que


resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender
proyectos que pueden afectar a todo el mundo".

Lo que no sabemos

Estos no son conceptos abstractos, asegura O'Heigeartaigh.

"Con cualquier nueva poderosa tecnologa -opina O'Heigeartaigh-, debemos pensar


detenidamente en qu sabemos, pero quizs es ms importante en este momento
estar conscientes de lo que no estamos seguros de saber".
"ste es el primer siglo en la historia del mundo en el que el ms grande riesgo viene
de la humanidad", seala el astrofsico y actual astrnomo real britnico Martin Rees.

"Con cualquier nueva tecnologa hay ventajas pero tambin riesgos", observa. "Es una
cuestin de escala: vivimos en un mundo ms interconectado: ms noticias y rumores
se difunden a la velocidad de la luz. Por ello, las consecuencias de un error o terror
son ms desmedidas que en el pasado".

Lamenta que mientras que s nos preocupamos por riesgos individuales ms


inmediatos, como los vuelos areos o seguridad alimentaria, tenemos ms dificultad
en reconocer peligros ms serios.

Debemos angustiarnos por un apocalipsis inminente?

Hay un cuello de botella en la historia de la humanidad. La condicin humana va


a cambiarNick Bostrom

sta no es una ficcin distpica: la brecha entre la velocidad del avance tecnolgico y
nuestro conocimiento de sus implicaciones es real, recalca Bostrom.

"Estamos al nivel de los nios en trminos de responsabilidad moral, pero con la


capacidad tecnolgica de adultos".

No obstante, la trascendencia del riesgo existencial "no ha entrado en el radar de la


gente".

Listos o no, advierte, el cambio est prximo.

"Hay un cuello de botella en la historia de la humanidad. La condicin humana va a


cambiar. Puede ser que termine en una catstrofe o que nos transformemos tomando
ms control de nuestra biologa", sostiene el filsofo.

"No se trata de ciencia ficcin, ni de una doctrina religiosa o una conversacin en un


bar: no hay ninguna razn moral admisible para no tomarlo en serio".

Anda mungkin juga menyukai