machine learning introduccion google español curso course automático automatico aprendizaje artificial-intelligence machine-learning classification pattern-recognition weka

artificial intelligence - learning - Recursos para principiantes/introducciones a algoritmos de clasificación



introduccion al aprendizaje automatico google (3)

La respuesta que se refiere a los tutoriales de Andrew Moore es buena . Sin embargo, me gustaría aumentarlo, sugiriendo algunas lecturas sobre la necesidad que impulsa la creación de muchos sistemas de clasificación en primer lugar: la identificación de relaciones causales. Esto es relevante para muchos problemas de modelado que involucran inferencia estadística.

El mejor recurso actual que conozco para aprender sobre la causalidad y los sistemas clasificadores (especialmente los clasificadores bayesianos) es el libro de Judea Pearl "Causalidad: modelos, razonamiento e inferencia" .

todos. Soy completamente nuevo en el tema de los algoritmos de clasificación, y necesito algunos buenos indicadores sobre dónde comenzar una "lectura seria". Ahora mismo estoy en el proceso de averiguar si los algoritmos de aprendizaje automático y de clasificación automática podrían ser una cosa útil para agregar a alguna de mis aplicaciones.

Ya exploré "Cómo resolverlo: heurísticas modernas" por Z. Michalewicz y D. Fogel (en particular, los capítulos sobre clasificadores lineales que usan redes neuronales), y en el aspecto práctico, actualmente estoy buscando en la fuente del kit de herramientas WEKA. código. Mi próximo paso (planificado) sería sumergirme en el reino de los algoritmos de clasificación bayesianos.

Lamentablemente, carezco de una base teórica seria en esta área (por no hablar de haberla usado de alguna manera hasta el momento), por lo que cualquier sugerencia sobre dónde buscar a continuación sería apreciada; en particular, sería útil una buena introducción de los algoritmos de clasificación disponibles. Al ser más artesano y menos teórico, cuanto más práctico, mejor ...

Consejos, alguien?


Siempre he encontrado que los tutoriales de Andrew Moore son muy útiles. Están fundamentados en una sólida teoría estadística y serán muy útiles para comprender los artículos si decide leerlos en el futuro. Aquí hay una breve descripción:

Estos incluyen algoritmos de clasificación tales como árboles de decisión, redes neuronales, clasificadores bayesianos, máquinas de vectores de soporte y aprendizaje basado en cased (también conocido como no paramétrico). Incluyen algoritmos de regresión como la regresión polinomial multivariable, MARS, Regresión ponderada localmente, GMDH y redes neuronales. E incluyen otras operaciones de minería de datos tales como agrupamiento (modelos mixtos, k-medias y jerárquicas), redes bayesianas y aprendizaje de refuerzo.


Visión general del aprendizaje automático

Para obtener una buena visión general del campo, mire las conferencias en video del curso Aprendizaje automático de Andrew Ng .

Este curso (CS229), impartido por el profesor Andrew Ng, proporciona una amplia introducción al aprendizaje automático y al reconocimiento de patrones estadísticos. Los temas incluyen aprendizaje supervisado, aprendizaje no supervisado, teoría del aprendizaje, aprendizaje por refuerzo y control adaptativo. También se discuten las aplicaciones recientes del aprendizaje automático, como el control robótico, la minería de datos, la navegación autónoma, la bioinformática, el reconocimiento de voz y el procesamiento de texto y datos web.

Clasificadores

En cuanto a qué clasificador debe usar, recomiendo comenzar primero con las máquinas de vectores de soporte (SVM) para las tareas de clasificación aplicadas generales. Le brindarán un rendimiento de vanguardia, y realmente no necesita entender toda la teoría que se encuentra detrás de ellos para usar la implementación provista por un paquete como WEKA.

Si tiene un conjunto de datos más grande, es posible que desee probar el uso de bosques aleatorios . También hay una implementación de este algoritmo en WEKA, y se entrenan mucho más rápido en datos grandes. Si bien son menos utilizados que los SVM, su precisión tiende a igualar o casi igualar la precisión que podría obtener de uno.