Anda di halaman 1dari 7

UNIVERSIDAD INDOAMERICA

INTELIGENCIA ARTIFICIAL

1
Ribadeneira Victor


Contenido

Introduccin ----------------------------------------------------------------------------------- 2
Los agentes y su entorno -------------------------------------------------------------------- 3
Medidas de rendimiento --------------------------------------------------------------------- 3
Racionalidad: --------------------------------------------------------------------------------- 4
Omnisciencia, aprendizaje y autonoma -------------------------------------------------- 4
Agentes reactivos simples ------------------------------------------------------------------ 5
Agentes reactivos basados en modelos --------------------------------------------------- 5
Agentes basados en objetivos -------------------------------------------------------------- 5
Agentes basados en utilidad ---------------------------------------------------------------- 6
Agentes que aprenden ----------------------------------------------------------------------- 6
Bibliografa ----------------------------------------------------------------------------------- 7


UNIVERSIDAD INDOAMERICA
INTELIGENCIA ARTIFICIAL

2
Ribadeneira Victor


Introduccin

En los agentes inteligentes se mostrara, que dentro del concepto de racionalidad se lo
puede ampliar a una gran variedad de agentes, los cuales pueden operar en cualquier tipo
de medio en el cual se pueda imaginar.
Es aqu donde se desarrolla un conjunto de principios de diseos los cuales sirvan como
agentes tiles a los cuales se los pueda llamar Inteligente, pero de una forma muy racional.
UNIVERSIDAD INDOAMERICA
INTELIGENCIA ARTIFICIAL

3
Ribadeneira Victor

Los agentes y su entorno

Se puede determinar como un agente a cualquiera de las cosas mediantes las cuales se las
pueda utilizar como un medio de percibir todo lo que tiene en su medio ambiente, siendo
el mismo ayudado mediante sensores, los cuales sirven para que pueda actuar, usando
como medio los actuadores.
Como humanos tenemos diferentes sensores por os cuales podemos percibir el medio
ambiente, y estos son: ojos, odos, piel, nariz, etc. Pero un robot cuenta con otros rganos
o medio para percibir su medio y puede ser: teclado, archivos, paquetes va red y acta
sobre el medio con mensajes en el monitor.
Mediante la percepcin es el encargado de indicar que el agente puede recibir entradas en
cualquier instante, donde todo este historial se lo denomina Secuencia de percepciones.
Dentro del programa del agente, se aplica tal y como es nuestro mundo de simple, ya que
podemos describir todo lo que sucede en l.
Buen comportamiento: El concepto de la racionalidad
Aqu podemos identificar al agente racional, que es que se dedica a realizar nicamente
lo correcto. Entonces tanto el agente racional junto al medio que lo rodea y sus respectivos
sensores con actuadores sern los que proporcionen una especificacin de la tarea.
Medidas de rendimiento

En ellas se incluyen el criterio los cuales son los que determinan el xito en el
comportamiento de un agente. Al momento de clocar un agente en el medio se genera una
secuencia de acciones con cada una de las percepciones que percibe. Como regla general,
es mejor disear medidas de utilidad de acuerdo con lo que se requiere para el entorno,
ms que de acuerdo con cmo se cree que el agente debe comportarse.
UNIVERSIDAD INDOAMERICA
INTELIGENCIA ARTIFICIAL

4
Ribadeneira Victor

Racionalidad:
Es un momento que depende de 4 factores:
La medida de rendimiento que define el criterio del xito
El conocimiento del medio en el que habita acumulado por el agente.
Las acciones que el agente puede llevar a cabo.
La secuencia de percepciones del agente hasta este momento.
Teniendo en cuenta estos puntos podemos dar como concepto que, En cado posible
secuencia de percepciones, un agente racional deber emprender aquella accin que
supuestamente maximice su medida de rendimiento, basndose en los evidencias
aportados por lo secuencia de percepciones y en el conocimiento que el agente mantiene
almacenado.

En muchos de los casos tambin se puede indicar de una forma muy fcil que un agente
puede resultar irracional en circunstancias diferentes. Ya que por ejemplo el mismo
(robot), tendr que verificar que cumpli con su objetivo, para eso deber confirmar que
lo hizo volviendo a revisar.
Omnisciencia, aprendizaje y autonoma

De forma muy cuidadosa debemos distinguir y diferenciar entre racionalidad y
omnisciencia, ya que un agente omnisciente puede conocer el resultado de su accin y
acta de acuerdo con l, pero en realidad no es posible. Se puede llegar a indicar que no
es lo mismo perfeccin con la racionalidad ya que esta maximiza el rendimiento esperado,
en cambio la perfeccin maximiza el resultado esperado.
Entre los procesos que debemos analizar para poder alcanzar la racionalidad podemos
encontrar: Recopilacin de informacin, exploracin, aprendizaje y la autonoma.
UNIVERSIDAD INDOAMERICA
INTELIGENCIA ARTIFICIAL

5
Ribadeneira Victor

Agentes reactivos simples
Es el tipo de agente ms sencillo, seleccionan las acciones sobre la base de las
percepciones actuales, ignorando el resto de las percepciones histricas.
Las reglas de condicin-accin permiten al agente generar la conexin desde las
percepciones a las acciones. Se utilizan rectngulos para denotar el estado interno actual
del proceso de toma de decisiones del agente y valos para representar la informacin
base utilizada en el proceso.
La funcin INTERPRETAR-ENTRADA genera una descripcin abstracta del estado
actual a partir de la percepcin, y la funcin REGLA-COINCIDENCIA devuelve la
primera regla del conjunto de reglas que coincide con la descripcin del estado dada.
Los agentes reactivos simples tienen la admirable propiedad de ser simples, pero poseen
una inteligencia muy limitada.
Agentes reactivos basados en modelos
La forma ms efectiva que tienen los agentes de manejar la visibilidad parcial es
almacenar informacin de las partes del mundo que no pueden ver. O lo que es lo mismo,
el agente debe mantener algn tipo de estado interno que dependa de la historia percibida
y que de ese modo refleje por lo menos alguno de los aspectos no observables del estado
actual.
La actualizacin de la informacin de estado interno segn pasa el tiempo requiere
codificar dos tipos de conocimiento en el programa del agente. Primero, se necesita
alguna informacin acerca de cmo evoluciona el mundo independientemente del agente.
Segundo, se necesita ms informacin sobre cmo afectan al mundo las acciones del
agente. Un agente que utilice este modelo es un agente basado en modelos.
La parte interesante es la correspondiente a la funcin Actualizar-Estado, que es la
responsable de la creacin de la nueva descripcin del estado interno. Adems de
interpretar la nueva percepcin a partir del conocimiento existente sobre el estado, utiliza
informacin relativa a la forma en la que evoluciona el mundo para conocer ms sobre
UNIVERSIDAD INDOAMERICA
INTELIGENCIA ARTIFICIAL

6
Ribadeneira Victor

las partes del mundo que no estn visibles: para ello debe conocer cul es el efecto de las
acciones del agente sobre el estado del mundo.
Agentes basados en objetivos
El conocimiento sobre el estado actual del mundo no siempre es suficiente para decidir
qu hacer. Adems de la descripcin del estado actual, el agente necesita algn tipo de
informacin sobre su meta que describa las situaciones que son deseables. El programa
del agente se puede combinar con informacin sobre los resultados de las acciones
posibles para elegir las acciones que permitan alcanzar el objetivo.
Hay que tener en cuenta que la toma de decisiones de este tipo es fundamentalmente
diferente de las reglas de condicin-accin descritas anteriormente, en las que hay que
tener en cuenta consideraciones sobre el futuro.
Aunque el agente basado en objetivos pueda parecer menos eficiente, es ms flexible ya
que el conocimiento que soporta su decisin est representado explcitamente y puede
modificarse.
Agentes basados en utilidad
Las metas por s solas no son realmente suficientes para generar comportamiento de gran
calidad en la mayora de los entornos. Las metas slo proporcionan una cruda distincin
binaria entre los estados de felicidad y tristeza, mientras que una medida de
eficiencia ms general debera permitir una comparacin entre estados del mundo
diferentes de acuerdo al nivel exacto de felicidad que el agente alcance cuando se llegue
a un estado u otro.
La definicin completa de una funcin de utilidad permite tomar decisiones racionales en
dos tipos de casos en los que las metas son inadecuadas. Primero, cuando haya objetivos
conflictivos, y slo se puedan alcanzar algunos de ellos (por ejemplo, velocidad y
seguridad), la funcin de utilidad determina el equilibrio adecuado. Segundo, cuando
haya varios objetivos por los que se pueda guiar el agente, y ninguno de ellos se pueda
alcanzar con certeza, la utilidad proporciona un mecanismo para ponderar la probabilidad
de xito en funcin de la importancia de los objetivos.
UNIVERSIDAD INDOAMERICA
INTELIGENCIA ARTIFICIAL

7
Ribadeneira Victor

De esta forma, la definicin global de racionalidad se transforma en una restriccin
local en el diseo de agentes racionales que se puede expresar con un simple programa.
Agentes que aprenden
El aprendizaje tiene otras ventajas, como permitir que el agente opere en medios
inicialmente desconocidos y que sea ms competente que si slo utilizase un
conocimiento inicial.
Un agente que aprende se puede dividir en cuatro componentes conceptuales, la distincin
ms importante entre el elemento de aprendizaje y el elemento de actuacin es que el
primero est responsabilizado de hacer mejoras y el segundo se responsabiliza de la
seleccin de acciones externas.
El elemento de aprendizaje realimenta con las crticas sobre la actuacin del agente y
determina cmo se debe modificar el elemento de actuacin para proporcionar mejores
resultados en el futuro.
El ltimo componente del agente con capacidad de aprendizaje es el generador de
problemas.

Bibliografa
www.uti.edu.ec
UNIVERSIDAD TECNOLGICA INDOAMERICA
Material de Estudio - Inteligencia_Artificial_Russel_Norvig.pdf

Anda mungkin juga menyukai