Aprendizaje automático: sin supervisión

Hasta ahora lo que has visto es hacer que la máquina aprenda a encontrar la solución a nuestro objetivo. En regresión, entrenamos la máquina para predecir un valor futuro. En clasificación, entrenamos a la máquina para clasificar un objeto desconocido en una de las categorías definidas por nosotros. En resumen, hemos estado entrenando máquinas para que puedan predecir Y para nuestros datos X. Dado un conjunto de datos enorme y sin estimar las categorías, sería difícil para nosotros entrenar la máquina mediante el aprendizaje supervisado. ¿Qué pasa si la máquina puede buscar y analizar los grandes datos que se ejecutan en varios Gigabytes y Terabytes y nos dice que estos datos contienen tantas categorías distintas?

Como ejemplo, considere los datos del votante. Al considerar algunas aportaciones de cada votante (estas se denominan características en la terminología de la IA), deje que la máquina prediga que hay tantos votantes que votarían por X partido político y muchos votarían por Y, y así sucesivamente. Por lo tanto, en general, le estamos preguntando a la máquina dada un gran conjunto de puntos de datos X, "¿Qué me puede decir acerca de X?". O puede ser una pregunta como "¿Cuáles son los cinco mejores grupos que podemos hacer con X?". O podría ser incluso como "¿Qué tres características ocurren juntas con mayor frecuencia en X?".

De esto se trata exactamente el aprendizaje no supervisado.

Algoritmos para el aprendizaje no supervisado

Analicemos ahora uno de los algoritmos más utilizados para la clasificación en el aprendizaje automático no supervisado.

agrupación de k-medias

Las elecciones presidenciales de 2000 y 2004 en los Estados Unidos estuvieron cerca, muy cerca. El mayor porcentaje del voto popular que recibió cualquier candidato fue del 50,7% y el más bajo fue del 47,9%. Si un porcentaje de los votantes hubiera cambiado de bando, el resultado de la elección habría sido diferente. Hay pequeños grupos de votantes que, cuando se les solicita debidamente, cambiarán de bando. Estos grupos pueden no ser enormes, pero con carreras tan reñidas, pueden ser lo suficientemente grandes como para cambiar el resultado de las elecciones. ¿Cómo encuentras a estos grupos de personas? ¿Cómo les atrae con un presupuesto limitado? La respuesta es la agrupación.

Entendamos cómo se hace.

  • Primero, recopila información sobre las personas con o sin su consentimiento: cualquier tipo de información que pueda dar alguna pista sobre lo que es importante para ellos y lo que influirá en su forma de votar.

  • Luego, coloca esta información en una especie de algoritmo de agrupamiento.

  • A continuación, para cada grupo (sería inteligente elegir primero el más grande), elabora un mensaje que atraerá a estos votantes.

  • Finalmente, entrega la campaña y mide para ver si está funcionando.

La agrupación en clústeres es un tipo de aprendizaje no supervisado que forma automáticamente grupos de cosas similares. Es como una clasificación automática. Puede agrupar casi cualquier cosa, y cuanto más similares sean los elementos en el grupo, mejores serán los grupos. En este capítulo, vamos a estudiar un tipo de algoritmo de agrupamiento llamado k-medias. Se llama k-medias porque encuentra 'k' grupos únicos, y el centro de cada grupo es la media de los valores en ese grupo.

Identificación de clústeres

La identificación de conglomerados le dice a un algoritmo: “Aquí hay algunos datos. Ahora agrupe cosas similares y hábleme de esos grupos ". La diferencia clave con la clasificación es que en la clasificación sabes lo que estás buscando. Si bien ese no es el caso de la agrupación.

La agrupación en clústeres a veces se denomina clasificación no supervisada porque produce el mismo resultado que la clasificación pero sin tener clases predefinidas.

Ahora, nos sentimos cómodos con el aprendizaje supervisado y no supervisado. Para comprender el resto de las categorías de aprendizaje automático, primero debemos comprender las redes neuronales artificiales (ANN), que aprenderemos en el próximo capítulo.