Anda di halaman 1dari 8

Qué es un diagrama de árbol de decisión

Lucidchart (2018). Qué es un diagrama de árbol de decisión [entrada de blog]. Recuperado de


https://www.lucidchart.com/pages/es/qu%C3%A9-es-un-diagrama-de-%C3%A1rbol-de-
decisi%C3%B3n

¿Necesitas analizar una decisión compleja? Intenta usar un árbol de decisión.


Sigue leyendo para conocer todo sobre los árboles de decisión: qué son, cómo
se usan y cómo crear uno.

Un árbol de decisión es un mapa de los posibles resultados de una serie de


decisiones relacionadas. Permite que un individuo o una organización comparen
posibles acciones entre sí según sus costos, probabilidades y beneficios. Se
pueden usar para dirigir un intercambio de ideas informal o trazar un algoritmo
que anticipe matemáticamente la mejor opción.

Un árbol de decisión, por lo general, comienza con un único nodo y luego se


ramifica en resultados posibles. Cada uno de esos resultados crea nodos
adicionales, que se ramifican en otras posibilidades. Esto le da una forma similar
a la de un árbol.

Hay tres tipos diferentes de nodos: nodos de probabilidad, nodos de decisión y


nodos terminales. Un nodo de probabilidad, representado con un círculo,
muestra las probabilidades de ciertos resultados. Un nodo de decisión,
representado con un cuadrado, muestra una decisión que se tomará, y un nodo
terminal muestra el resultado definitivo de una ruta de decisión.

1
Los árboles de decisión también se pueden dibujar con símbolos de diagramas
de flujo, que a algunas personas les parecen más fáciles de leer y comprender.

Cómo dibujar un árbol de decisión

Para dibujar un árbol de decisión, primero debes elegir un medio. Puedes


dibujarlo a mano en un papel o una pizarra, o puedes usar un software de
árboles de decisión. En cualquier caso, te mostramos los pasos que debes seguir:

2
1. Comienza con la decisión principal. Dibuja un pequeño recuadro para
representar este punto, luego dibuja una línea desde el recuadro hacia la
derecha para cada posible solución o acción. Etiquétalas correctamente.

2. Agrega nodos de decisión y probabilidad para expandir el árbol del


siguiente modo:

 Si otra decisión es necesaria, dibuja otro recuadro.


 Si el resultado es incierto, dibuja un círculo (los círculos representan
nodos de probabilidad).
 Si el problema está resuelto, déjalo en blanco (por ahora).

3
Desde cada nodo de decisión, dibuja soluciones posibles. Desde cada nodo de
probabilidad, dibuja líneas que representen los resultados posibles. Si deseas
analizar tus opciones de forma numérica, incluye la probabilidad de cada
resultado y el costo de cada acción.

3. Continúa con la expansión hasta que cada línea alcance un extremo,


lo que significa que no hay más decisiones que tomar o resultados probables
que considerar. Luego, asigna un valor a cada resultado posible. Puede ser una
puntuación abstracta o un valor financiero. Agrega triángulos para indicar los
extremos.

Con un árbol de decisión completo, ya estás listo para comenzar a analizar la


decisión que enfrentas.

Ejemplo de análisis de un árbol de decisión

Al calcular la utilidad o el valor esperado de cada decisión en el árbol, puedes


minimizar el riesgo y maximizar la probabilidad de obtener un resultado
deseado.

4
Para calcular la utilidad esperada de una decisión, solo debes restar el costo de
esa decisión a los beneficios esperados. Los beneficios esperados son iguales al
valor total de todos los resultados que puedan derivar de esa decisión, y cada
valor se multiplica por la probabilidad de que ocurra. A continuación, te
mostraremos cómo nosotros calcularíamos estos valores para el ejemplo
descrito anteriormente:

Al identificar cuál es el resultado más deseable, es importante tener en cuenta


las preferencias de utilidad del encargado de tomar la decisión. Por ejemplo,
algunos prefieren opciones de bajo riesgo, mientras que otros están dispuestos
a correr riesgos si el beneficio es mayor.

Al usar tu árbol de decisión acompañado por un modelo de probabilidad, puedes


emplearlo para calcular la probabilidad condicional de un evento o la probabilidad
de que suceda, en el caso de que otro evento ocurra. Para hacerlo, simplemente
empieza con el evento inicial, luego sigue la ruta desde ese evento hasta el
evento objetivo, y multiplica la probabilidad de cada uno de esos eventos juntos.

De este modo, un árbol de decisión se puede emplear como un diagrama de


árbol tradicional, que traza las probabilidades de determinados eventos, como
lanzar una moneda dos veces.

5
Ventajas y desventajas

Los árboles de decisión siguen siendo populares por razones como las siguientes:

 Son muy fáciles de entender


 Pueden ser útiles con o sin datos fehacientes y cualquier dato requiere
una preparación mínima
 Se pueden agregar nuevas opciones a los árboles existentes
 Su valor al seleccionar la mejor de numerosas opciones
 Se combinan fácilmente con otras herramientas de toma de decisiones

Sin embargo, los árboles de decisión pueden volverse excesivamente complejos.


En esos casos, un diagrama de influencia más compacto puede ser una buena
alternativa. Los diagramas de influencia se enfocan en los objetivos, las entradas
y las decisiones fundamentales.

6
Árboles de decisión en minería de datos y aprendizaje automático

Un árbol de decisión también puede usarse para ayudar a crear modelos


predictivos automatizados, que puedan emplearse en el aprendizaje automático,
la minería de datos y las estadísticas. Conocido como "el aprendizaje basado en
árboles de decisión", este método toma en consideración las observaciones
sobre un elemento para predecir su valor.

En estos árboles de decisión, los nodos representan datos en lugar de decisiones.


Este tipo de árbol también se conoce como "árbol de clasificación". Cada
ramificación contiene un conjunto de atributos o reglas de clasificación asociadas
a una etiqueta de clase específica, que se halla al final de la ramificación.

Estas reglas, también conocidas como "reglas de decisión", se pueden expresar


en una cláusula "Si... entonces...". Cada valor de datos o decisión forma una
cláusula, de tal manera que, por ejemplo, "si las condiciones 1, 2 y 3 se cumplen,
entonces el resultado X será el resultado definitivo con certeza Y".

Cada dato adicional ayuda a que el modelo prediga de forma más precisa a qué
conjunto finito de valores pertenece el asunto en cuestión. Esa información se
puede usar posteriormente como una entrada en un modelo más grande de toma
de decisiones.

A veces la variable predicha será un número real, como un precio. Los árboles
de decisión con resultados posibles, infinitos y continuos se llaman "árboles de
regresión".

Para una mayor precisión, se suelen combinar múltiples árboles con métodos de
ensamblado:

 Bagging (Ensamblado) crea múltiples árboles de decisión haciendo un


remuestreo de los datos de origen, luego hace que los árboles voten para
llegar a un consenso
 Un clasificador de selva aleatoria consiste en múltiples árboles
diseñados para aumentar la tasa de clasificación
 Los árboles ampliados se pueden usar en árboles de clasificación y de
regresión
 Los árboles en una Selva aleatoria (Rotation Forest) se entrenan
mediante el uso del análisis de componentes principales (ACP) en una
porción aleatoria de los datos

Un árbol de decisión se considera ideal cuando representa la mayor cantidad de


datos con el menor número de niveles o preguntas. Los algoritmos diseñados
para crear árboles de decisión optimizados incluyen CART, ASSISTANT, CLS y
ID3/4/5. Un árbol de decisión también se puede generar mediante la creación
de reglas de asociación, ubicando la variable objetivo a la derecha.

7
Cada método debe determinar cuál es la mejor forma de dividir los datos en
cada nivel. Los métodos comunes para hacerlo incluyen la medición de la
impureza de Gini, la obtención de información y la reducción de variaciones.

Emplear los árboles de decisión en el aprendizaje automático tiene numerosas


ventajas:

 El costo del uso del árbol para predecir los datos disminuye con cada punto
de datos adicional
 Funciona para los datos numéricos o categóricos
 Puede modelar problemas con múltiples resultados
 Usa un modelo de caja blanca (lo que hace que los resultados sean fáciles
de explicar)
 La fiabilidad de un árbol se puede cuantificar y poner a prueba
 Tiende a ser preciso independientemente de si viola las suposiciones de
los datos de origen

Pero también tienen algunas desventajas:

 Cuando se presentan datos categóricos con múltiples niveles, la


información obtenida se inclina a favor de los atributos con mayoría de
niveles
 Los cálculos pueden volverse complejos al lidiar con la falta de certezas y
numerosos resultados relacionados
 Las conjunciones entre nodos se limitan a AND, mientras que los gráficos
de decisión admiten nódulos relacionados mediante OR

Anda mungkin juga menyukai