Toggle navigation sidebar
Toggle in-page Table of Contents
Trabajando con scikit learn
Introducción
Apredizaje supervisado
1. Método Neareast Neighbors
2. Support Vector Machines
3. Regresión Logística
4. Regresión Softmax
5. Árboles de decisión (Decision tree)
6. Predicción con multiclases
7. Métodos ensembles
Apredizaje NO supervisado
8. Conceptos preliminares
Otras herramientas
9. Pipelines o canalizaciones
10. Regularización de datos
11. Validación de modelos
12. Medias de Bonda del Ajuste
Índice de términos
13. Índice de términos
Bibliografía
14. Bibliografia
Índice
Index
A
|
B
|
C
|
D
|
E
|
F
|
G
|
I
|
K
|
L
|
M
|
N
|
O
|
P
|
R
|
S
|
T
|
V
|
X
A
acuracidad
AdaBoost
algoritmos jerárquicos
B
bagging
BallTree
blending
boosting
bootstrap (muestra)
C
canopy clustering
clustering y segmentación
ColumnTransformer (clase)
cross validation iterators
cross-validation
cross_val_score
cross_validate
curva de ROC
D
DAGSVM (Directed Acyclic Graph SVM)
Decicision Stump
distancia de coseno
distancia de Gauss
distancia de Hamming
distancia de Mahalanobis
distancia de Minkowski
distancia euclídea
distancia o similitud
E
early stopping
ensembles
error cuadrático medio
especifidad
estimadores
F
F-score
FeatureUnion (clase)
G
get_dummies() (pandas)
Gradient Boosting
GridSearchCV
I
iteradores validación cruzada
K
k-fold
k-means
KDTree
kernel
L
learning rate
M
make_column_transformer (clase)
make_pipeline
Máquinas de Vector Soporte
mean absolute error (MAE)
medidas bondad ajuste
N
Neareast Neighbors
O
One-vs-One
One-vs-Rest
OneHotEncoder
OOB
out-of-bag
P
para temprana
pasting
pipelines o canalizaciones o tuberías
R
raíz del error cuadrático medio
regresión logística multinomial
regularización (lasso ridge y ElasticNet)
S
sensibilidad
slack variables
Softmax regresión
Stacking
Support Vector Machines
SVM
T
tasa de aprendizaje
thresholds
train_test_split
transformadores
V
validación cruzada
validación modelos
variables de holgura
X
XGBoost