2153013660
UAM-I Lingüística
Fundamentos de Programación.
06/02/2018
Nota: En este trabajo no se deseó investigar en específico dos aplicaciones malogradas de la IA,
sino que prefirió abordarse y desarrollar el tema, mencionando algunos referentes como ejemplos y
con conclusiones personales.
¿Es posible hoy en día encontrar una Inteligencia Artificial que sea capaz de realmente hacer
(o imitar de buena manera) lo que el humano hace? ¿Puede una computadora crear una obra
de arte que emocione nuestros sentidos? ¿Puede comprender las sutilezas de la naturaleza
humana, nuestras ambiciones, nuestras mentes?
Al hacernos estas preguntas podemos ver más objetivamente los límites de la Inteligencia
Artificial. Es un área que el día de hoy podemos encontrarlo en múltiples temas de nuestra
vida cotidiana y ahora domina las conversaciones acerca de nuestro futuro. Y a pesar de ser
un tema que está en boca de todos, viendo sus avances y errores, comprendiendo sus formas
y desconociendo su evolución, hablando maravillas del progreso y asustándonos de igual
manera por su progreso (haciendo que nos preguntemos si la IA va a dominarnos o
extinguirnos), cabe preguntarse ¿podríamos estar dejándonos llevar? ¿Acaso estamos
pensando en la IA de manera demasiado romántica y no aterrizando los pies en las realidades
actuales de ella? ¿Será que el hombre está tan maravillado por las idealizaciones de la misma
IA que cree estar enamorado de las posibilidades que nos presenta?
En realidad, quizás estamos pensando que la IA es perfecta, pero las limitaciones que esta
posee, en gran manera, están determinadas por las mismas limitaciones de sus creadores. Por
lo tanto, la maduración de la IA es una progresión trabajosa, llena de tropiezos y errores.
Si bien un algoritmo de IA (o machine learning) está diseñado para repetir procesos hasta
poder prácticamente tomar decisiones por sí mismo (basados en datos de estadística para
determinar si el resultado es adecuado, óptimo o funcional), si de origen, sus datos están
sesgados o mal documentados, la máquina corre el riesgo de cometer errores o reflejar vicios
no deseados (los cuales son propios de los humanos que alimentan dichos procesos).
Los accidentes, errores y fallas provocados por software o robots industriales con IA se
remontan a los orígenes de estas tecnologías. Sin embargo, no son necesariamente el
resultado de los propios sistemas.
Los fallos de los sistemas basados en inteligencia artificial están directamente relacionados
con los errores cometidos por la inteligencia que imitan. Tampoco podemos decir que los
fallos de las tecnologías hagan que éstas sean inservibles o no funcionales, quizás la
programación es adecuada pero su desarrollo o aplicación funcionaron de manera inesperada.
Los desarrolladores de programas funcionales con IA clasifican estas disfunciones en dos
tipos: el primer tipo son "errores cometidos durante la fase de aprendizaje" y el segundo,
"errores cometidos durante la fase de funcionamiento". Un sistema puede aprender lo que le
pidan que aprenda y puede errar al aprender lo que sus diseñadores quieren que aprenda si
los parámetros no están bien delimitados, y en su lugar, incorporar una función diferente,
aunque correlacionada pero no la deseada.
Cada día que pasa, usuarios y consumidores experimentan más carencias de la inteligencia
artificial: filtros de correo basura que en vez de bloquear spam bloquean correos importantes,
sistemas de GPS que facilitan indicaciones erróneas (y con ello promueven accidentes o
multas de tránsito), traducciones automáticas que pervierten el sentido de las frases o en su
defecto que no son interpretables, funciones de autocorrección que sustituyen la palabra
deseada por una incorrecta, sistemas biométricos que no reconocen a las personas, software
de transcripción que obvia recoger lo que se dice...; en general, resulta más complicado
encontrar ejemplos de IA que no fallen.
Por mencionar un ejemplo (y un caso muy famoso) tenemos el caso del chatbot de Microsoft,
Tay. Este Chatbot había comenzado a realizar afirmaciones racistas y ofensivas en Twitter y
en chats. Tay, de inicio, estaba programada para conversar con los usuarios, podía contar
chistes o comentar las fotografías que recibía, pero también podía personalizar sus
interacciones con los humanos, respondiendo a sus preguntas. Al omento de salir a las redes
los cibernautas “le enseñaron a ser racista”, puesto que la IA aprende de las conversaciones
e interacciones con humanos, por lo que comenzó a emitir juicios y opiniones políticamente
incorrectos, lo que llevó a sus creadores a apagarla.
Tay no es la única tecnología con IA que se considera como un fracaso. La lista de errores y
fallos de funcionamiento (y eso sólo contando las de tecnologías abiertas al público) es
bastante extensa y los casos más sonados son:
La compresión de sus conclusiones: Aún queda pendiente poder determinar con exactitud de
qué manera la Inteligencia Artificial llega a algunas conclusiones, ya que por ahora sólo es
posible determinar el funcionamiento de las redes neuronales en conjunto, aunque se
desconocen las razones a las que un cerebro artificial llega a determinada conclusión o
resultado.
No obstante, Agüera dice que la única forma de combatir este sesgo y mantener la fiabilidad
de los datos con los que se alimentan los sistemas inteligentes es traducir todos los datos a
modelos matemáticos que no dejen lugar a la duda, sim embargo, tampoco deja de lado que
haya interacción humana en todo momento para interpretar los datos y supervisar el
desarrollo.
La solución que propone, además de matemática, es que la IA no sea tan avanzada, es decir,
no permitirle tener procesos con tanta autonomía y libertad.
“Se tiene que usar data para construir modelos de machine learning pero al mismo tiempo
estos datos tienen el riesgo de estar sesgados porque lo que se puede convertir en un círculo
vicioso. No debe haber espacio para la duda razonable, entonces la única manera de quitarle
el sesgo a los datos es contraponerlos a comprobaciones matemáticas. Se debe buscar la
precisión y justicia, sin embargo, siempre queda abierta la interpretación e interacción
humana”.
Personalmente, coincido con el hecho de que la IA quizás esté catalogada como “malograda”
erróneamente. Es seguro que la IA tiene fallas, pero dichas fallas son las que los
programadores han dejado por alto en sus parámetros de programación y desarrollo. Quizás
no haya una solución a corto plazo por las limitaciones propias de las capacidades cognitivas
humanas, pero, en algún unto estas tecnologías irán mejorando y cumpliendo sus objetivos
por lo meno en el sentido de una tarea a la vez o de un propósito establecido.
Referencias cibernéticas:
https://www.theverge.com/2016/10/10/13224930/ai-deep-learning-limitations-drawbacks
http://www.bbc.com/mundo/noticias/2016/03/160325_tecnologia_microsoft_tay_bot_adole
scente_inteligencia_artificial_racista_xenofoba_lb
http://planetatelefonica.com.ar/inteligencia-artificial-bots-tecnologia-aprende-mal/
https://latam.kaspersky.com/blog/ai-fails/11221/
https://www.infobae.com/america/tecno/2017/07/28/facebook-perdio-el-control-de-un-
sistema-de-inteligencia-artificial-que-tomo-vida-propia/