Deep Learning con Keras: importación de bibliotecas

Primero importamos las diversas bibliotecas requeridas por el código en nuestro proyecto.

Manejo y trazado de matrices

Como es típico, usamos numpy para el manejo de matrices y matplotlibpara trazar. Estas bibliotecas se importan en nuestro proyecto utilizando lo siguienteimport declaraciones

import numpy as np
import matplotlib
import matplotlib.pyplot as plot

Suprimir advertencias

Como tanto Tensorflow como Keras continúan revisando, si no sincroniza sus versiones apropiadas en el proyecto, en el tiempo de ejecución verá muchos errores de advertencia. Como distraen su atención del aprendizaje, suprimiremos todas las advertencias en este proyecto. Esto se hace con las siguientes líneas de código:

# silent all warnings
import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='3'
import warnings
warnings.filterwarnings('ignore')
from tensorflow.python.util import deprecation
deprecation._PRINT_DEPRECATION_WARNINGS = False

Keras

Usamos bibliotecas de Keras para importar conjuntos de datos. Usaremos elmnistconjunto de datos para dígitos escritos a mano. Importamos el paquete requerido usando la siguiente declaración

from keras.datasets import mnist

Definiremos nuestra red neuronal de aprendizaje profundo utilizando paquetes de Keras. Importamos elSequential, Dense, Dropout y Activationpaquetes para definir la arquitectura de la red. Usamosload_modelpaquete para guardar y recuperar nuestro modelo. También usamosnp_utilspara algunas utilidades que necesitamos en nuestro proyecto. Estas importaciones se realizan con las siguientes instrucciones de programa:

from keras.models import Sequential, load_model
from keras.layers.core import Dense, Dropout, Activation
from keras.utils import np_utils

Cuando ejecute este código, verá un mensaje en la consola que dice que Keras usa TensorFlow en el backend. La captura de pantalla en esta etapa se muestra aquí:

Ahora, como tenemos todas las importaciones requeridas por nuestro proyecto, procederemos a definir la arquitectura de nuestra red de Deep Learning.