artificial-intelligence neural-network biological-neural-network

artificial intelligence - Dando a una red neuronal "dolor"



artificial-intelligence neural-network (5)

Realmente no funciona así. La red que ha descrito es demasiado simple para tener un concepto como un dolor que trataría de eliminar. En un nivel bajo, no es más que otra entrada, pero obviamente eso no hace que la red "no me guste".

Para obtener tal señal, puede entrenar a la red para realizar ciertas acciones cuando recibe esta señal particular. A medida que se vuelve más refinado, esta señal comienza a verse como una señal de dolor real, pero no es más que un entrenamiento específico de la red.

La señal de dolor en animales superiores tiene esta respuesta de "hacer cualquier cosa para deshacerse de ella" porque los animales superiores tienen habilidades cognitivas bastante avanzadas en comparación con la red que usted describió. Los gusanos, por otro lado, podrían responder de una manera muy específica a una entrada de "dolor": tickete de cierta manera. Está cableado de esa manera, y decir que el gusano intenta hacer cualquier cosa para deshacerse de la señal sería incorrecta; es más como un motor conectado a un botón que gira cada vez que presiona el botón.

Los mecanismos realistas para hacer que las redes neuronales artificiales hagan cosas útiles se conocen colectivamente como "capacitación en redes neuronales", y es un área de investigación grande y compleja. Puede buscar esta frase en google para obtener varias ideas.

Sin embargo, debe tener en cuenta que las redes neuronales no son una panacea para resolver problemas difíciles; no hacen las cosas automáticamente a través de la magia. Usarlos de manera efectiva requiere una gran cantidad de experimentación con los ajustes del algoritmo de tramado y los ajustes de los parámetros de la red.

He programado una red neuronal no direccional. Así que al igual que el cerebro, todas las neuronas se actualizan al mismo tiempo, y no hay capas explícitas.

Ahora me pregunto, ¿cómo funciona el dolor? ¿Cómo puedo estructurar una red neuronal para que una señal de "dolor" haga que quiera hacer algo para deshacerse de dicho dolor?


No sé mucho (si acaso) sobre la teoría de la inteligencia artificial, excepto que todavía estamos buscando una forma de darle a la IA el modelo que necesita para razonar, pensar y reflexionar como lo hacen los humanos. (Todavía estamos buscando la clave, y tal vez sea doloroso ).

La mayor parte de mi vida adulta se ha centrado en la programación de computadoras y el estudio y la comprensión de la mente.

Estoy escribiendo aquí porque creo que el DOLOR podría ser el eslabón perdido. (También rocks en este momento.) Sé que crear un modelo que permita un pensamiento más avanzado es un gran salto, pero tuve este increíble momento tipo aha y tuve que compartirlo. :)

En mis estudios sobre budismo, aprendí de un científico que estudió casos de lepra. La razón por la cual los leprosos se deforman es porque no sienten dolor cuando entran en contacto con fuerzas dañinas. Es aquí donde la ciencia y el razonamiento budista colisionan en una verdad fundamental.

El dolor es lo que nos mantiene vivos, define nuestros límites y determina la forma en que hacemos nuestras elecciones y nuestra visión del mundo.

En un modelo de IA, el principio sería definir una serie de fuerzas quizás, que están constantemente en juego. La idea es mantener la mente viva.

El concepto de que las ideas tienen vida es algo que los humanos también parecemos jugar. Cuando alguien "mata" tu idea, demostrándola mal, al principio, hay una resistencia a la "muerte" de la idea. De hecho, a veces se requiere mucho para forzar el cambio de una idea. Todos conocemos personas obstinadas ... Se ha dicho que la "muerte" de una idea es la "muerte" de una parte del ego. El ego siempre está tratando de construirse a sí mismo.

Así que, como puede ver, para darle a la IA un ego, debe darle dolor, y luego tendrá que luchar para construir pensamientos "seguros" para que pueda crecer sus propias ideas y, finalmente, la psicosis humana y la "conciencia".


Es posible que tenga una respuesta parcial a esta pregunta sobre cómo se puede expresar el dolor en una red neuronal. Como referencia, la red base que uso es un algoritmo HTM. Es esencialmente una serie de capas interconectadas, cada una prediciendo su siguiente entrada, las predicciones correctas son recompensadas usando la lógica hebbiana.

Teóricamente, podría haber algunas conexiones entre capas que están cerradas, y esta puerta solo se puede abrir con suficiente activación en otra capa. Esta otra capa estaría amañada para aprender a reconocer nuevos patrones en el contexto del disparador del dolor. Por lo tanto, en presencia de un estímulo anticipado por el dolor, se abriría el canal cerrado, creando un sistema de atención simulada para el reconocimiento del dolor futuro. Si bien esto no es dolor en sí mismo, es similar al miedo.


Las redes neuronales artificiales no reconocen el "dolor", pero en realidad pueden entrenarse para evitar ciertos estados. En una red Hopfield, el estado final de la red se alcanza en el mínimo de energía que está más cerca del estado inicial. El estado inicial en este contexto es el estado donde la red está en "dolor". Si entrena a la red para que tenga su mínimo de energía local en un estado donde el "dolor" desaparece, debe modificarse hasta que se logre ese estado. Una forma simple de entrenar una red Hopfield es asignar un peso a las interacciones entre las neuronas. Ese peso se decide según la regla de Hebb, que viene dada por: Wij = (1 / n) * [i] * [j].

Wij es el peso de la conexión entre la neurona i y la neurona j, n es el número total de neuronas en la matriz, y [i] y [j] son ​​los estados de las neuronas i y j, respectivamente, que pueden tener valores de 1 o -1. Una vez que haya completado la matriz de ponderación para un estado en el que el "dolor" no existe, la red debería pasar la mayor parte del tiempo hacia ese estado sin importar el estado inicial.


Piensa en las redes neuronales como un plano multidimensional. El entrenamiento de una red neuronal básicamente consiste en colocar puntos altos y bajos en el plano. El avión admite los "pesos" y forma una depresión a su alrededor. Una depresión en el plano es una salida deseada, y una montaña es una salida no deseada. La idea de una red neuronal es poner las depresiones en las áreas que importan. El dolor se vería como una montaña gigante. De modo que una neurona de entrada que representa el dolor tendría una probabilidad muy alta de producir una salida no deseada.

Pero el dolor no es lo único que hace que una criatura se comporte de la manera en que lo hace. El dolor en un árbol no causa mucha reacción. En los animales, el dolor causa reacciones fisiológicas, como un aumento de la adrenalina . Esto provoca un mayor estado de conciencia y un gran aumento en el consumo de energía . Para modelar el comportamiento del dolor , debe proporcionar un modelo de estos mecanismos para que un estímulo de dolor proporcione el resultado adecuado. En un NN, imagino que necesitaría ser una Red Neural Recursiva para que el dolor tenga una duración proporcional a la entrada, de modo que la criatura que estás modelando evite el dolor por más tiempo que la duración del estímulo del dolor. Este sería un período de curación.

NN tienden a ser más como un árbol. Al modelar un estado de energía con un costo de energía, la criatura usaría energía mínima para sobrevivir, pero usaría mucha energía si, al hacerlo, la llevara al estado deseado más rápido que el costo de permanecer en el estado de dolor no deseado. Volviendo al hiperplano, esto parecería una mayor velocidad fuera de la montaña del dolor y en una deseada depresión "segura". La magnitud del vector en la depresión más cercana es el nivel de motivación de la NN para evitar el dolor. El entrenamiento debería hacer esto agregando pesas negativas pesadas y sesgos a las entradas de dolor haciendo siempre que la entrada de dolor resulte en una respuesta incorrecta, asumiendo que la reacción de energía y conciencia se modela en una red neuronal recursiva.