Machine Learning

Publicaciones, tutoriales, pruebas de concepto y artículos en general

Publicaciones y tutoriales

Publicaciones recientes

Exportar modelo de Machine Learning de Python a Java

En este post, te mostraré cómo entrenar un modelo de Machine Learning en Python utilizando Sklearn y cómo exportarlo como código ejecutable en Java. Es...

Temas populares

Pruebas de concepto

En esta sección publicaré los resultados obtenidos con distintos algoritmos de Machine Learning sobre el dataset MNIST, el cual está formado por imágenes de números manuscritos. En total son 60,000 imágenes para entrenamiento y 10,000 imágenes de prueba. Sin embargo, debido a que el archivo CSV con las 60,000 imágenes de entrenamiento supera 100 MB, en mis pruebas estaré utilizando 50,000 imágenes para no tener problemas a la hora de subir los resultados a nuestro repositorio de Github.

Los resultados aquí presentados se obtuvieron bajo las siguientes condiciones:

    • Datos de entrenamiento: 50,000
    • Datos de prueba: 10,000
    • Lenguaje de programación: Python
    • Sistema operativo: Windows 10
    • Memoria RAM: 32 GB
    • Procesador: Intel Core i7-7700HQ CPU @ 2.80 GHz. 4 núcleos físicos y 8 núcleos lógicos.

Todos y cada uno de los resultados aquí presentados han sido discutidos en publicaciones en este blog. Los scripts estarán disponibles en nuestro repositorio de Github. Los enlaces directo a cada script estarán disponibles en la última columna de la tabla que presentaremos a continuación.

wdt_ID Algorithm Library Hyperparameters Accuracy Training time Testing time Test type Github script
1 Random Forest Sklearn n_estimators=200 97.02% 77,59 193,28 One by one
3 Random Forest Sklearn default 96.82% 38,33 106,40 One by one
4 Support Vector Machine Sklearn default 97.84% 149,73 101,14 One by one
5 Support Vector Machine Sklearn kernel="linear" 93.87% 171,35 52,69 One by one
6 Support Vector Machine Sklearn kernel="poly" 97.53% 182,62 53,19 One by one
7 Support Vector Machine Sklearn kernel="sigmoid" 78.16% 262,42 94,53 One by one
8 Support Vector Machine Sklearn kernel="poly", degree=2 97.59% 149,37 53,10 One by one
9 Random Forest Sklearn n_estimators=500, max_depth=30,min_samples_split=2 97.04% 213,92 464,18 One by one
10 AdaBoostClassifier Sklearn default 73.89% 41,40 1,15 Overall
12 BaggingClassifier Sklearn default 93.03% 131,98 0,46 Overall