Anda di halaman 1dari 6

Angélica Berenice García Hernández.

2153013660
UAM-I Lingüística
Fundamentos de Programación.
06/02/2018

Nota: En este trabajo no se deseó investigar en específico dos aplicaciones malogradas de la IA,
sino que prefirió abordarse y desarrollar el tema, mencionando algunos referentes como ejemplos y
con conclusiones personales.

LAS APLICACIONES MAL LOGRADAS DE LA IA EN LAS TECNOLOGÍAS.

¿Es posible hoy en día encontrar una Inteligencia Artificial que sea capaz de realmente hacer
(o imitar de buena manera) lo que el humano hace? ¿Puede una computadora crear una obra
de arte que emocione nuestros sentidos? ¿Puede comprender las sutilezas de la naturaleza
humana, nuestras ambiciones, nuestras mentes?

Al hacernos estas preguntas podemos ver más objetivamente los límites de la Inteligencia
Artificial. Es un área que el día de hoy podemos encontrarlo en múltiples temas de nuestra
vida cotidiana y ahora domina las conversaciones acerca de nuestro futuro. Y a pesar de ser
un tema que está en boca de todos, viendo sus avances y errores, comprendiendo sus formas
y desconociendo su evolución, hablando maravillas del progreso y asustándonos de igual
manera por su progreso (haciendo que nos preguntemos si la IA va a dominarnos o
extinguirnos), cabe preguntarse ¿podríamos estar dejándonos llevar? ¿Acaso estamos
pensando en la IA de manera demasiado romántica y no aterrizando los pies en las realidades
actuales de ella? ¿Será que el hombre está tan maravillado por las idealizaciones de la misma
IA que cree estar enamorado de las posibilidades que nos presenta?

En realidad, quizás estamos pensando que la IA es perfecta, pero las limitaciones que esta
posee, en gran manera, están determinadas por las mismas limitaciones de sus creadores. Por
lo tanto, la maduración de la IA es una progresión trabajosa, llena de tropiezos y errores.
Si bien un algoritmo de IA (o machine learning) está diseñado para repetir procesos hasta
poder prácticamente tomar decisiones por sí mismo (basados en datos de estadística para
determinar si el resultado es adecuado, óptimo o funcional), si de origen, sus datos están
sesgados o mal documentados, la máquina corre el riesgo de cometer errores o reflejar vicios
no deseados (los cuales son propios de los humanos que alimentan dichos procesos).

Los accidentes, errores y fallas provocados por software o robots industriales con IA se
remontan a los orígenes de estas tecnologías. Sin embargo, no son necesariamente el
resultado de los propios sistemas.

Los fallos de los sistemas basados en inteligencia artificial están directamente relacionados
con los errores cometidos por la inteligencia que imitan. Tampoco podemos decir que los
fallos de las tecnologías hagan que éstas sean inservibles o no funcionales, quizás la
programación es adecuada pero su desarrollo o aplicación funcionaron de manera inesperada.
Los desarrolladores de programas funcionales con IA clasifican estas disfunciones en dos
tipos: el primer tipo son "errores cometidos durante la fase de aprendizaje" y el segundo,
"errores cometidos durante la fase de funcionamiento". Un sistema puede aprender lo que le
pidan que aprenda y puede errar al aprender lo que sus diseñadores quieren que aprenda si
los parámetros no están bien delimitados, y en su lugar, incorporar una función diferente,
aunque correlacionada pero no la deseada.

Cada día que pasa, usuarios y consumidores experimentan más carencias de la inteligencia
artificial: filtros de correo basura que en vez de bloquear spam bloquean correos importantes,
sistemas de GPS que facilitan indicaciones erróneas (y con ello promueven accidentes o
multas de tránsito), traducciones automáticas que pervierten el sentido de las frases o en su
defecto que no son interpretables, funciones de autocorrección que sustituyen la palabra
deseada por una incorrecta, sistemas biométricos que no reconocen a las personas, software
de transcripción que obvia recoger lo que se dice...; en general, resulta más complicado
encontrar ejemplos de IA que no fallen.

Por mencionar un ejemplo (y un caso muy famoso) tenemos el caso del chatbot de Microsoft,
Tay. Este Chatbot había comenzado a realizar afirmaciones racistas y ofensivas en Twitter y
en chats. Tay, de inicio, estaba programada para conversar con los usuarios, podía contar
chistes o comentar las fotografías que recibía, pero también podía personalizar sus
interacciones con los humanos, respondiendo a sus preguntas. Al omento de salir a las redes
los cibernautas “le enseñaron a ser racista”, puesto que la IA aprende de las conversaciones
e interacciones con humanos, por lo que comenzó a emitir juicios y opiniones políticamente
incorrectos, lo que llevó a sus creadores a apagarla.

Tay no es la única tecnología con IA que se considera como un fracaso. La lista de errores y
fallos de funcionamiento (y eso sólo contando las de tecnologías abiertas al público) es
bastante extensa y los casos más sonados son:

• Empresa Northpointe: Esta empresa desarrolló un algoritmo para predecir la


probabilidad de que un delincuente reincidiera y este algoritmo, con los datos y
parámetros dados, determinó que las personas de color eran más proclives a volver a
cometer un crimen que los blancos.
• Videojuego Elite Dangerous: Los personajes no controlados por jugadores del
videojuego comenzaron a desarrollar por su cuenta armas que no estaban en el diseño
original del juego. De esta forma, los jugadores humanos se enfrentaban a naves
equipadas con armamento desconocido que les destruía en pedazos y que era
prácticamente imposible de derrotar.
• Compañía Knightscope Inc: Un robot de seguridad arroyó a un niño de 16 meses en
un centro comercial de Palo Alto, California. Por sus parámetros de estatura y
movilidad, no determinó que este fuera humano y lo omitió como elemento a evadir.
• Automóviles Tesla: El accidente se produjo en una autopista de Florida, cuando el
vehículo Tesla (que es un vehículo autónomo) no detectó la parte trasera de un camión
y se empotró contra él, con la consecuente muerte del pasajero.
• Beauty.AI 2.0: El primer concurso de belleza en contar con un jurado no humano,
demostró que el algoritmo había desarrollado un sesgo racista que le llevó a puntuar
más bajo a las mujeres de color.
• Alpha Go: El programa perdió en 2016 contra un humano al juego Go en una partida
nivel campeonato mundial.
• Facebook: La red social perdió el control de un sistema de inteligencia artificial que
tomó “vida propia”. El programa había sido creado para negociar en inglés con
humanos, pero desarrolló su propio lenguaje, con lo cual comenzó negociaciones y
sus programadores no pudieron revertir el proceso, así que lo dieron de baja

Como podemos notar, esto es solamente un caso de mal funcionamiento de la IA o, si se


quiere, de la aparición de un efecto no previsto ni deseado. No se trata de que el sistema no
esté bien diseñado y desarrollado, sino de que ha adquirido lo que podríamos denominar
“malos hábitos”.

Concluyendo, existen tres grandes problemas que enfrenta la inteligencia artificial: el


primero de los problemas sería el volumen de datos, el segundo es la limitación para las tareas
múltiples y por último la compresión de sus conclusiones.

El volumen de datos utilizados: Es una necesidad la utilización de datos por parte de la


Inteligencia Artificial para poder aprender sobre su entorno, pero regularmente no se toma
en cuenta la cantidad de datos que están involucrados. La Inteligencia Artificial no solamente
necesita de más datos que el cerebro humano para poder comprender conceptos y
características, necesitan miles de veces más que los datos requeridos por un humano y
parámetros específicos para su buen funcionamiento.

Inteligencia artificial multitarea: La inteligencia humana es integral, puede desempeñar


muchas tareas, y ese es precisamente un fallo de la Inteligencia Artificial desarrollada hasta
ahora, ya que es aplicada a un área del conocimiento o actividad específica. Una vez que una
IA ha sido programada y puesta a funcionar, puede ser altamente efectivo para tareas como
el reconocimiento de animales o para ser el rival ideal en un videojuego, pero no existe una
red neuronal artificial en el mundo capaz de hacer más de una tarea a la vez. Hasta ahora no
ha sido posible crear sistemas de IA que pueden aprender nuevas tareas, porque una vez que
adquiere un nuevo entrenamiento, deja de lado las ejecuciones anteriores, por lo que no se
tiene una memoria inteligente. La propuesta para solucionar este inconveniente ya existe y
se llama redes neuronales progresivas, que crea sistemas de aprendizaje profundo separados,
pero que al unirse puedan transmitir ciertos bits de información, sin embargo, es una
tecnología en fase de desarrollo.

La compresión de sus conclusiones: Aún queda pendiente poder determinar con exactitud de
qué manera la Inteligencia Artificial llega a algunas conclusiones, ya que por ahora sólo es
posible determinar el funcionamiento de las redes neuronales en conjunto, aunque se
desconocen las razones a las que un cerebro artificial llega a determinada conclusión o
resultado.

Blaise Agüera y Arcas, director de procesos de inteligencia artificial en Google comenta:


“Los algoritmos en sí mismos son casi perfectos, pero el riesgo es el error de los datos. Ahí
es donde está el sesgo, porque vienen de personas y las personas, todas, están sesgadas de
distintas maneras”.

No obstante, Agüera dice que la única forma de combatir este sesgo y mantener la fiabilidad
de los datos con los que se alimentan los sistemas inteligentes es traducir todos los datos a
modelos matemáticos que no dejen lugar a la duda, sim embargo, tampoco deja de lado que
haya interacción humana en todo momento para interpretar los datos y supervisar el
desarrollo.

La solución que propone, además de matemática, es que la IA no sea tan avanzada, es decir,
no permitirle tener procesos con tanta autonomía y libertad.

“Se tiene que usar data para construir modelos de machine learning pero al mismo tiempo
estos datos tienen el riesgo de estar sesgados porque lo que se puede convertir en un círculo
vicioso. No debe haber espacio para la duda razonable, entonces la única manera de quitarle
el sesgo a los datos es contraponerlos a comprobaciones matemáticas. Se debe buscar la
precisión y justicia, sin embargo, siempre queda abierta la interpretación e interacción
humana”.

Personalmente, coincido con el hecho de que la IA quizás esté catalogada como “malograda”
erróneamente. Es seguro que la IA tiene fallas, pero dichas fallas son las que los
programadores han dejado por alto en sus parámetros de programación y desarrollo. Quizás
no haya una solución a corto plazo por las limitaciones propias de las capacidades cognitivas
humanas, pero, en algún unto estas tecnologías irán mejorando y cumpliendo sus objetivos
por lo meno en el sentido de una tarea a la vez o de un propósito establecido.
Referencias cibernéticas:

https://www.theverge.com/2016/10/10/13224930/ai-deep-learning-limitations-drawbacks

http://www.bbc.com/mundo/noticias/2016/03/160325_tecnologia_microsoft_tay_bot_adole
scente_inteligencia_artificial_racista_xenofoba_lb

http://planetatelefonica.com.ar/inteligencia-artificial-bots-tecnologia-aprende-mal/

https://latam.kaspersky.com/blog/ai-fails/11221/

https://www.infobae.com/america/tecno/2017/07/28/facebook-perdio-el-control-de-un-
sistema-de-inteligencia-artificial-que-tomo-vida-propia/

Anda mungkin juga menyukai