Problema general.
Problemas específicos.
Objetivos
Objetivo general.
Objetivos específicos.
Hipótesis.
Hipótesis general.
Hipótesis específico.
Marco teórico.
Antecedente de problemas.
Bases teóricas
Cap. 1.
Inteligencia artificial, o AI
La inteligencia artificial (Artificial Intelligence, o AI) es la simulación de procesos
de inteligencia humana por parte de máquinas, especialmente sistemas
informáticos. Estos procesos incluyen el aprendizaje (la adquisición de
información y reglas para el uso de la información), el razonamiento (usando las
reglas para llegar a conclusiones aproximadas o definitivas) y la
autocorrección. Las aplicaciones particulares de la AI incluyen sistemas
expertos, reconocimiento de voz y visión artificial.
Ejemplos de tecnología AI
Aplicaciones de AI
Cap. 2
Próximos pasos
Estas son las grandes aplicaciones del sistema de inteligencia artificial más nuevo
de Facebook llamado "DeepText" . 400,000 nuevas historias y 125,000
comentarios en publicaciones públicas se comparten cada minuto en
Facebook. DeepText ayudará a Facebook a analizar varios miles por segundo en
20 idiomas con una precisión casi humana.
Facebook explica que "para acercarnos a cómo los humanos entienden el texto,
debemos enseñarle a la computadora a entender cosas como la jerga y la
desambiguación del sentido de la palabra. Como ejemplo, si alguien dice: "Me
gusta Blackberry", ¿eso significa la fruta o el dispositivo? "
La brecha entre los que tienen AI y los que no tienen se está ampliando. Si cada
publicación de News Feed parece interesante, pasarás más tiempo en
Facebook, compartirás más texto allí, DeepText se volverá más inteligente y la
rueda de comentarios de Facebook AI girará más y más rápido para convertirte
en el motor de recomendación de contenido perfecto.
Mark Zuckerberg compareció ayer ante el Senado de los Estados Unidos, y entre
las muchas cuestiones que se abordaron hubo una especialmente clave para el
futuro de la plataforma: la gestión de los comentarios y los contenidos que se
publican en esta red social.
El discurso del odio es uno de los problemas más difíciles de abordar, pero creo
que la inteligencia artificial puede llevarnos allí en cinco o diez años.
Sin duda un tema complejo, pero uno que tiene a la inteligencia artificial
funcionando ya tanto en algunos servicios de Facebook como de su
competencia. Esos sistemas de inteligencia artificial están aún lejos de ser
perfectos, y hay algunos ejemplos clamorosos de los problemas que tiene ceder
las tareas de moderación y censura a máquinas y algoritmos.
El problema del 'discurso del odio' ha sido tratado por muchos ingenieros en este
ámbito. Thomas Davidson, que ha copublicado estudios como esteal respecto,
ayudó a desarrollar un sistema —el código está en GitHub— para atajarlo en
Twitter.
Como en el caso de Facebook, el problema es que una palabra que tiene ciertos
significados puede ser entendida de otra forma según el contexto o el paso del
tiempo. Aquí los términos utilizados por todo tipo de jergas hacen aún más difícil
ese tratamiento y entendimiento, sobre todo cuando palabras ofensivas también
pueden ser totalmente inofensivas cuando las usamos por ejemplo como parte
de una broma a un conocido. El contexto lo es todo, y a menudo no basta con
analizar un comentario o contenido de forma independiente, sino que hay que
analizar el contexto en el que fue publicado.
En Google también llevan tiempo trabajando con este problema. La API llamada
Perspective, que forma parte del proyecto Jigsaw —como también lo hace esa
llamativa VPN llamada Outline—. Como explicamos entonces, este motor
procesa comentarios de forma automática y les otorga una puntuación de 0 a
100 en función de su grado de toxicidad.
Todas las grandes tratan de atajar el problema del spam con inteligencia artificial,
pero por ahora los resultados no son óptimos.
Los algoritmos dominan nuestra vida, y aunque algunos nos la cambian para
bien, estamos empezando a darnos cuenta de cómo dejar que una máquina
tome decisiones puede no ser muy buena idea.
Hay dos problemas con esos algoritmos que desarrollan Google, Facebook y
otras empresas: no podemos auditarlos, pero sobre todo, están creados por
seres humanos y por tanto no son 100% objetivos.
Hay al menos dos problemas con esos algoritmos que tratan de controlar
nuestras vidas. El primero, que normalmente no podemos auditarlos: las
empresas que los utilizan protegen su propiedad intelectual al máximo, y no
liberan ese código o no son transparentes a la hora de usarlo y pasan cosas
como esta.
El problema es aún más preocupante cuando vemos cómo quienes más utilizan
la inteligencia artificial para filtrar, moderar o censurar lo hacen de forma
peligrosa: sin aparente control. El papel del ser humano a la hora de cuidar que
esos contenidos no se conviertan en tóxicos es más importante que nunca
Esa parece ser la triste conclusión actual del papel de una inteligencia artificial
que parece estar lejos de poder filtrar, moderar y censurar de la forma que
necesitamos. ¿Puede ayudar a hacerlo? Sin duda, pero el papel del ser humano
a la hora de cuidar que esos contenidos no se conviertan en tóxicos sin poner en
riesgo tampoco la necesaria libertad de expresión es más importante que nunca.
https://www.xataka.com/robotica-e-ia/zuckerberg-y-el-papel-de-la-inteligencia-
artificial-como-moderadora-y-censuradora-de-contenidosx