Anda di halaman 1dari 3

Faltan normas ticas para robots - La Jornada

1 de 3

file:///G:/++GLOBAL_10feb2016/DOCUMENTOS/YA GUARDADOS...

viernesLa
2 deJornada
enero de 2009 Sociedad y Justicia Faltan normas ticas para robots

Faltan normas ticas para robots


Su uso debe restringirse en escenarios como el cuidado de bebs, ancianos o la guerra
Steve Connor (The Independent)
Ampliar la imagen

Los robots no estn por llegar: ya estn aqu, pero, en vez de dominar a la
humanidad con su lgica y su fuerza superiores, amenazan con crear una
subclase de personas aisladas del contacto humano.
Es necesario supervisar y controlar mediante normas ticas el creciente
nmero de robots en casa, para restringir su uso en escenarios delicados,
como el cuidado de bebs, la atencin a ancianos y la guerra, advierte un
destacado cientfico.

Ya estn aqu y hay que


ponerles lmites: Sharkey
Foto: Reuters

Se estima que las ventas de robots para servicio profesional y personal en


todo el planeta han llegado a 5.5 millones de unidades este ao, y se prev
que alcancen ms del doble 11.5 millones hacia 2011. Algunos ayudan a
profesionistas ocupados a entretener a los nios; otros alimentan y baan a
ancianos y discapacitados. Sin embargo, hay poco o ningn control sobre
su uso.

El profesor Noel Sharkey, experto en inteligencia artificial de la


Universidad de Sheffield, Inglaterra, advierte que los robots actan en
situaciones potencialmente delicadas que podran conducir al aislamiento y
la falta de contacto humano, debido a la tendencia a dejarlos solos con las personas a su cargo durante
periodos prolongados.
Necesitamos trazar normas para poner lmite al contacto con robots afirma. Algunos robots diseados para
cuidar nios son ahora tan seguros que los padres pueden dejar a sus hijos con ellos durante horas, o incluso
das.
Ms de una docena de compaas con sede en Japn y Sudcorea fabrican robots de compaa y cuidado de
nios. Por ejemplo, NEC ha probado en infantes su bonito robot personal PaPeRo, que vive en la casa con la
familia, reconoce los rostros, puede imitar la conducta humana y ser programado para contar chistes mientras
explora la casa. Muchos robots estn diseados como juguetes, pero pueden asumir papeles de cuidado de los
menores vigilando sus movimientos y comunicndose con un adulto ubicado en otra habitacin, o incluso en
otro edificio, mediante una conexin inalmbrica de computadora o telfono mvil.
La investigacin sobre robots de servicio ha mostrado que los nios se relacionan estrechamente con ellos y
les cobran apego; en la mayora de los casos prefieren un robot a un osito de peluche coment el profesor
Sharkey. La exposicin por periodos breves puede brindar una experiencia amena y entretenida, que
despierta inters y curiosidad. Sin embargo, por la seguridad fsica que proporcionan los robots cuidadores, se
puede dejar a los nios sin contacto humano durante muchas horas al da o tal vez durante varios das, y no
se conoce el posible impacto sicolgico de los diversos grados de aislamiento social sobre el desarrollo.

04/05/2016 14:38

Faltan normas ticas para robots - La Jornada

2 de 3

file:///G:/++GLOBAL_10feb2016/DOCUMENTOS/YA GUARDADOS...

Para cuidar de los ancianos se desarrollan robots menos juguetones. Secom fabrica una computadora llamada
My spoon (Mi cuchara), que ayuda a discapacitados a tomar alimentos de una mesa. Sanyo ha construido
una baera robot elctrica que lava y talla automticamente a una persona que padece discapacidad motriz.
En el otro extremo del espectro de edades, el incremento de los ancianos en muchos pases ha disparado el
desarrollo de robots para cuidarlos, apunta Sharkey. Estos robots ayudan a los ancianos a ser
independientes en sus casas, pero su presencia conlleva el riesgo de dejarlos bajo el cuidado exclusivo de las
mquinas, sin contacto humano suficiente. Los ancianos necesitan este contacto, que slo pueden ofrecerles
los cuidadores humanos y las personas que realizan tareas cotidianas para ellos.
En la revista Science, Sharkey hace un llamado a adoptar normas ticas para cubrir todos los aspectos de la
tecnologa robtica, no slo en el hogar y en el lugar de trabajo, sino tambin en el campo de batalla, donde
se despliegan robots letales como los aviones no tripulados Predator, armados de misiles, que se usaron en
Irak y Afganistn. El proyecto estadunidense Sistemas Futuros de Combate apunta a utilizar robots como
multiplicadores de fuerza, con los cuales un solo soldado podra lanzar ataques terrestres y areos en gran
escala con un ejrcito de androides. Los robots de cuidado y de guerra representan slo dos de muchas
reas problemticas desde el punto de vista tico que pronto surgirn por el rpido incremento y la creciente
diversidad de las aplicaciones robticas, advierte el profesor Sharkey. Cientficos e ingenieros que trabajan
en robtica deben tener en cuenta los peligros potenciales de su trabajo, y se requiere un debate pblico
internacional para adoptar polticas y normas destinadas a la aplicacin tica y segura.
El llamado a controlar los robots se remonta a la dcada de 1940, cuando el escritor de ciencia ficcin Isaac
Asimov traz sus famosas tres leyes de la robtica. La primera ordenaba que los robots no deban daar a las
personas; la segunda, que deban obedecer el mando humano, siempre y cuando no quebrantaran la primera
ley, y la tercera, que deban evitar daarse a s mismos en tanto ello no entrara en conflicto con las otras dos
leyes.
Asimov escribi una coleccin de cuentos llamada Yo, Robot, que abordaba el tema de las mquinas y la
moral. Quera contrarrestar la larga historia de recuentos ficticios sobre autmatas peligrosos desde el
Golem judo hasta el Frankenstein de Mary Shelley y cre sus tres leyes como recurso literario para
explotar las cuestiones ticas que surgen de la interaccin humana con seres inteligentes no humanos. Sin
embargo, las predicciones de finales del siglo XX relativas al ascenso de mquinas investidas de una
inteligencia artificial superior no se han cumplido, si bien los cientficos de la robtica han dotado a sus
protegidos mecnicos de rasgos casi inteligentes, como el reconocimiento del habla simple, la expresin
emocional y el reconocimiento de rostros.
El profesor Sharkey cree que es necesario controlar incluso a los robots tontos. No sugiero, como Asimov,
poner reglas ticas a los robots, sino slo tener lineamientos sobre la forma de utilizarlos. Los actuales ni
siquiera alcanzan el adjetivo de tontos. Si creyera que son superiores en inteligencia, no tendra estas
preocupaciones. Son mquinas bobas, no mucho ms brillantes que la lavadora promedio, y se es el
problema.
The Independent
Traduccin: Jorge Anaya
Agregar un Comentario

Copyright 1996-2009 DEMOS, Desarrollo de Medios, S.A. de C.V.


Todos los Derechos Reservados.
Derechos de Autor 04-2005-011817321500-203.
04/05/2016 14:38

Faltan normas ticas para robots - La Jornada

3 de 3

file:///G:/++GLOBAL_10feb2016/DOCUMENTOS/YA GUARDADOS...

04/05/2016 14:38

Anda mungkin juga menyukai