| Proyecto Integral de Ingeniería del Software | |
|---|---|
| Metodologías Ágiles |
| Trabajo Fin De Grado | |
|---|---|
| Guía Memoria TFG |
| Servidores | |
|---|---|
| Minercraft | |
| Knoppia | |
| Omegacraft |
| Base de datos de juegos | |
|---|---|
| GameBoy Advance (GBA) |
| Proyecto Integral de Ingeniería del Software | |
|---|---|
| Metodologías Ágiles |
| Trabajo Fin De Grado | |
|---|---|
| Guía Memoria TFG |
| Servidores | |
|---|---|
| Minercraft | |
| Knoppia | |
| Omegacraft |
| Base de datos de juegos | |
|---|---|
| GameBoy Advance (GBA) |
¡Esta es una revisión vieja del documento!
Es una rama de la IA que trata de desarrollar algoritmos que permitan a las máquinas aprender. Se busca desarrollar modelos computacionales que sean capaces de resolver problemas complejos usando como base ejemplos.
Término usado para describir la capacidad de un modelo para clasificar o predecir nuevos datos correctamente. Hay 2 conceptos importantes relacionados con la generalización:
Hay que encontrar un balance entre estos 2 conceptos.
Antes de usar datos para entrenar un modelo, suele ser necesario realizar ciertas preparaciones de los datos como:
Primero debemos conocer las notaciones y definiciones:
\(\mathbf{x}^\top \mathbf{y} = [x_1, x_2, \ldots, x_m]\begin{bmatrix} y_1 \\ y_2 \\ \vdots \\ y_m \end{bmatrix} = x_1 y_1 + x_2 y_2 + \cdots + x_m y_m\)
$||x|| = \sqrt{X^T X} = \sqrt{X_1^2 + x_2^2 + X^2_m}$
Tienen como objetivo predecir una o más variables continuas dado el valor de un set explicativo de variables repesentado por un vector $X$ con dimensión $m$
$ X = \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_m \end{bmatrix}$
Para predecir los valores de las variables tenemos los siguientes elementos clave:
Es similar a la regresión excepto en que el valor predecido toma valores dentro de un pequeño set discreto de datos. En el caso específico de clasificación binarias solo hay 2 posibles valores para cada item, por ejemplo:
Es una clasificación supervisada por que las etiquetas están disponibles para los datos entrenados.
Primero es necesario diferenciar entre error de función y métrica de evaluación:
$MSE = \frac{1}{n}∑^n_{i=1}(t_i-y_i)^2$
$RMSE = \sqrt{\frac{1}{n}∑^n_{i=1}(t_i-y_i)^2}$
$MAE = \frac{1}{n}∑^n_{i=1}|t_i-y_i|$
$MAPE = \frac{100}{n}∑^n_{i=1}|\frac{t_i-y_i}{t_i}|$
$SMAPE = \frac{100}{n}∑^n_{i=1}\frac{|t_i-y_i|}{|t_i|+|y_i|}$
Tenemos una matriz de confusión para dos clases de problemas:
| Predicción de clasificador/Clase Real | Positivo | Negativo |
|---|---|---|
| Positivo | Verdaderos Positivos (TP) | Falsos positivos (FP) |
| Negativo | Falsos negativos(FN) | Verdaderos negativos (TN) |
$Exactitud= \frac{Aciertos Globales}{Casos Totales} = \frac{TP+TN}{TP+TN+FP+FN} $
$Sensibilidad = \frac{Aciertos de casos positivos}{Casos positivos} = \frac{TP}{TP+FN}$
$Especifidad = \frac{Aciertos de casos negativos}{Casos negativos} = \frac{TN}{TN+FP}$
$Precisión = \frac{Aciertos para casos clasificados como positivos}{Casos clasificados como positivos} = \frac{TP}{TP+FP}$
$Puntuación F-1 = 2 + \frac{Exactitud*Sensibilidad}{Precisión+Sensibilidad}$
$Macro-Media = \frac{1}{c}∑^c_{i=1}Métrica de la clase i$
$media pesada = \frac{Σ^c_{i=1} num. datos clase i * métrica de la clase i}{num. datos locales}$
$MicroMedia = \frac{TP1 + TP2 + TP3}{TP1+TP2+TP3+FP1+FP2+FP3}$
Los métodos de aprendizaje no lineales permten la creación de regiones de decisión complejas para separar datos de diferentes clases. En general suelen rendir mejor que los modelos lineales.
Muchos modelos de Machine Leargin están inspirados por la biología. Las redes neuronales artificiales definen funciones de las entradas que son calculadas por las neuronas. El modelo matemático de una neurona artificial sería el siguiente:
Las neurona están organizadas en una serie de capas que definen la arquitectura de la red:
El entrenamiento de las redes trata de encontrar el peso óptimo $W^*$
$W^* = argmin_w ∑^n_{i=1}E(y_i, t_i)$
$t_i$ es la salida deseada e $y_i$ es la salida para los datos $i$. Las funciones de error más utilizadas son:
$MSE = E(y_i,t_i) = \frac{1}{2}(y_i-t_i)^2$
$Entropía-Cruzada = E(y_i,t_i) = -t_i log(y_i)$