Uno de los epítetos que con mayor frecuencia he visto esgrimir en contra de conductistas es que son “robots”. Alguna vez hemos notado que este epíteto suele venir en dos sabores; el primero es la acusación de que los conductistas tratan a las personas como si fueran robots; el segundo sabor es que los conductistas mismos son robots. Esta vez, en lugar de inútilmente defendernos del epíteto, veremos si podemos apropiarnos de él para darle un uso un poco más interesante.
¿Qué pasa cuando un conductista se interesa por los robots?
Parece el principio de un chiste, así que mejor aclaremos: no, no estamos hablando de qué es lo que pasa cuando un conductista se enamora de un robot (debe haber algún caso de la Regla 34 que involucre a Skinner y robots), sino de qué es lo que pasa cuando la disciplina se interesa por los robots, inteligencia artificial, y temas vinculados. Dicho de otro modo: ¿es posible utilizar los principios conductuales para tratar de comprender no sólo la conducta de los organismos biológicos, sino de lo que podríamos llamar organismos no biológicos (ONB, para usar un término que englobe tanto robots como software, inteligencia artificial, etc.)?
Resulta que no estamos planteando nada novedoso, ya que la respuesta a esa pregunta, sobre la relación entre ciencia conductual y robótica, tiene ya más de medio siglo.
Programación y libertad
La cuestión central hoy para los organismos no biológicos (ONB) no es tanto cómo construirlos. Probablemente nunca haya sido tan accesible como hoy la construcción de robots –incluso la marca de juegos infantiles Lego ofrece kits de robots para niños (lamentablemente no ofrecen kits de niños robots). La cuestión central es más bien como programarlos para que hagan lo que queremos que hagan, es decir, cómo controlar su conductas.
Especialmente un objetivo central para los ONB es dotarlos de cierta autonomía de funcionamiento. Desde una aspiradora robot hasta un asistente digital, el objetivo es que puedan desempeñar cada vez más tareas de manera autónoma, con mínima necesidad de programación.
De manera general, hay dos abordajes: programar lo que queremos que hagan, o bien programar formas de responder para que el ONB realice la tarea en cuestión.
Con respecto al primero, una buena parte de los ONB que existen hoy tienen sus conductas completamente programadas, sin manera de salirse de ese repertorio. Los robots que se utilizan en las líneas de montaje, por ejemplo, tienen un repertorio de movimientos que se reduce a los necesarios para su tarea. Si uno de estos robots, por ejemplo, ordena cajas, es porque alguien ha programado todos y cada uno de los pasos para hacerlo: escanear la cinta transportadora, reconocer las cajas, tomarlas, llevarlas hasta cierto lugar y depositarlas, etc.
Para tareas simples en entornos estables este abordaje suele ser suficiente. Sin embargo, a medida que se complejiza lo que les pedimos, o cuando el entorno es variable, ese abordaje no resulta práctico ni flexible. Programar cada contingencia posible en circunstancias cambiantes o complejas puede ser abrumador o directamente imposible si las circunstancias no se pueden anticipar completamente.
Tomemos el caso de las sondas robots que la NASA ha enviado a Marte para exploración. Debido al retraso de las comunicaciones por la distancia entre la Tierra y Marte (las ondas de radio tardan unos 13 minutos en llegar de un planeta a otro), no es posible controlarlas efectivamente en tiempo real, de manera que la forma de manejar su comportamiento fue dotarlos de algunos principios de funcionamiento para que puedan funcionar de manera autónoma, adaptándose a las particularidades del terreno (de paso, tómense un momento para apreciar el hecho de que hoy Marte es un planeta habitado exclusivamente por robots).
Artículo recomendado: Sin psicólogos no hay viaje a Marte
Entonces, por un lado, tenemos robots que tienen todas sus acciones programadas. Pero en eso son muy distintos a los seres vivos. Un animal tiene muy pocas conductas “programadas”, en relación con su repertorio real de conductas. Esto es así porque un animal tiene que lidiar con un ambiente que siempre cambia más rápido de lo que los procesos evolutivos lentos pueden seguir. “Programar” evolutivamente conductas es mala idea. En cambio, la evolución ha dotado a los animales de formas rápidas de adaptarse a las particularidades de su ambiente en su período de vida. La variedad de la conducta de los animales no viene de su programación, sino de la presencia de procesos que le permiten desarrollar nuevas conductas a medida que va lidiando con su ambiente – nos referimos principalmente a los procesos del aprendizaje respondiente y operante.
Los robots, como las sondas marcianas, con un grado mayor de “libertad”, son más interesantes desde un punto de vista conductual, porque se enfrentan al mismo problema: responder a un entorno cambiante. Usando una analogía con los organismos biológicos, si las máquinas programadas parecieran actuar y exclusivamente por reflejos, estos robots se parecen más a un organismo que actúa en y con su contexto.
Entonces, ¿qué pasa si construimos nuestros robots de manera que funcionen más como un organismo biológico? ¿Qué pasa si construimos robots que puedan responder a su ambiente, y más aún, aprender de su ambiente? Resulta que hay una disciplina que desde hace casi un siglo viene estudiando la conducta, la forma en la cual los organismos interactúan con su ambiente, y cómo las conductas complejas emergen de la interacción de procesos aparentemente simples.
Entonces: ¿qué pueden ofrecer los principios formulados por la ciencia de la conducta a la robótica, y qué, a su vez, puede aprender la ciencia conductual de ella? Para ensayar una respuesta a esta pregunta, díganle a Siri que ponga el teléfono en silencio, apaguen su aspiradora robot, y remontémonos a la época de nacimiento de la robótica moderna.
Tortugas mecánicas enamoradas
En 1950, entró en la escena de la naciente disciplina de la robótica un curioso personaje llamado William Grey Walter. Neurofisiólogo y técnico de electroencefalógrafo, fue descripto así por sus biógrafos: “su reputación popular y académica abarcaba una heterogénea serie de roles, desde pionero en robótica, experto en explosivos de seguridad doméstica, intercambiador de esposas, experto en televisión, usuario de drogas experimentales y buceador desnudo hasta anarco sindicalista, defensor de la leucotomía y terapia electroconvulsiva”(Hayward, 2001). Muchas imágenes se nos vienen a la mente con semejante descripción, pero la de un tipo aburrido no es una de ellas.
Walter se hizo conocido por la construcción de dos robots, a los cuales llamó Elmer y Elsie, conocidos como “tortugas mecánicas”. Se trataba de unas máquinas pequeñas con tres ruedas dispuestas como un triciclo y un caparazón plástico (de ahí el mote de tortugas), del cual emergía una suerte de periscopio. Cada tortuga tenía dos motores (uno para la rueda de dirección, y otro para las ruedas de propulsión), una fotocelda (como los sensores para luces exteriores que las encienden automáticamente al caer la noche), un sensor de tacto en el borde del caparazón, y un par de condensadores y tubos de vacío que interconectaban los componentes. Elmer y Elsie carecían de cualquier programación en el sentido usual del término. De estructura completamente analógica, no tenían chips ni transistores, sino sólo algunos tubos de vacío y condensadores que más o menos equivalían a dos neuronas. Esto es, no tenían un “cerebro” central, sino que todas sus conductas eran derivadas de la interconexión entre componentes: la activación de uno desactiva a otro, y así.
Las tortugas fueron presentadas académicamente en un artículo titulado Una imitación de la vida (Walter, 1950), porque era justamente lo que Walter estaba intentando hacer: construir máquinas que actuaran como organismos vivos, y de hecho se refiere a ellas en el texto como “criaturas”. Walter las denominó siguiendo la convención taxonómica, con el nombre científico de Machina Speculatrix, porque su movimiento daba la impresión de que estaban especulando sobre el camino a seguir. Sobre su construcción, afirmó que “el número de componentes en el aparato fue deliberadamente restringido para descubrir el grado de complejidad conductual e independencia que podía alcanzarse con el menor número de elementos conectados en un sistema proporcionando el mayor número de interconexiones posibles”.
Las tortugas se movían lenta y constantemente en un patrón semicircular hasta detectar una fuente de luz gracias a su fotocelda. Al detectarla, avanzaban más rápidamente hacia ella, y al llegar empezaban una suerte de danza alrededor de la luz. Si en su recorrido tocaban un obstáculo con el caparazón podían empujarlo o rodearlo. Eso es todo lo que habían sido construidas para hacer.
¿Qué tanta complejidad conductual se puede esperar de un mecanismo construido de manera tan sencilla? Mucha, al parecer. Las tortugas exhibieron conductas inesperadas que de ser observadas en animales se hubieran podido atribuir a organizaciones complejas. Este es el relato de Walter de lo que sucede cuando una tortuga queda frente a un espejo: “Cuando los modelos fueron construidos por primera vez, una pequeña luz fue conectada al circuito del motor de dirección para indicar cuándo el motor estaba encendido o apagado. Pronto se halló que esta luz permitía a las máquinas una nueva conducta. Cuando la fotocelda ve la luz indicadora en un espejo o reflejada en una superficie blanca, la luz del modelo titila y el modelo baila frente a su reflejo de una manera tan específica que un biólogo estaría justificado en atribuirle una capacidad de auto-reconocimiento.”
Y la casi poética descripción de lo que sucede cuando dos tortugas quedan cara a cara: “Cuando dos criaturas de este tipo se encuentran cara a cara son afectadas de una manera similar pero distintiva. Cada una, atraída por la luz que la otra lleva, extingue su propia fuente de atracción, de manera que los dos sistemas se involucran en una oscilación mutua que lleva finalmente a una retirada estable (…) Cuando ambas están atraídas por la misma luz, su lucha a medida que se acercan a la luz evita que cualquiera alcance su meta”
Oh, y sí, tenemos videos de las tortugas:
Al año siguiente, bajo el título “Una máquina que aprende”, Walter relató la construcción y funcionamiento de CORA, la siguiente generación de Elmer y Elsie. CORA (por las siglas en inglés de Análogo de Reflejo COndicionado) era exteriormente muy similar a Elmer y Elsie, con el añadido de un micrófono que le permitía registrar sonidos. Pero lo característico de CORA es que poseía un circuito simple que le permitía “aprender” de una manera basada explícitamente en el condicionamiento pavloviano.
CORA, si bien de diseño un poco más sofisticado que Elmer y Elsie, era de construcción completamente analógica, nada de transistores, computadoras, ni programación. Con su capacidad para condicionamiento pavloviano, CORA podía asociar por ejemplo un sonido a un obstáculo:
“He trabajado con un modelo en movimiento equipado con uno de estos dispositivos de aprendizaje. La situación que tenía que resolver era llegar a su comida y buscar alrededor de un taburete en el medio del piso. Su educación consistió simplemente en tratar de enseñarle que el sonido significaba obstáculo, que a su vez significaba problemas. El entrenamiento consistía en hacer sonar un silbato policial y patearlo. Después de haber sido silbado y pateado una docena de veces, descubrió que un silbato significaba problemas. Luego eliminamos el estímulo específico: el taburete. El silbato sonó y evitó el lugar como si hubiera un taburete allí.
Fui más ambicioso aún. En Inglaterra, un silbato de policía tiene dos notas que suenan juntas y hacen un sonido particularmente desagradable. Traté de enseñarle, por tanto, que una nota significaba obstáculo, y que la otra nota significaba comida. Traté de hacer este reflejo diferencial al tener dos circuitos sintonizados, uno de los cuales estaba asociado con la respuesta apetitiva y el otro con la respuesta de evitación. Se realizó un arreglo en el cual un lado del silbato sonaba antes de que la máquina tocara un objeto para que aprendiera a evitarlo, mientras que el otro lado del silbato sonaba antes de que supuestamente viera la luz. El efecto de dar ambas notas fue casi siempre desastroso; se fue directamente a la oscuridad en el lado derecho de la habitación y se cernió por allí durante cinco minutos en una especie de mal humor. Dejó de responder a la estimulación y corrió en círculos.”(Inhelder & Tanner, 1956).
Esta última experiencia es particularmente intrigante, porque resulta notablemente similar a un conocido experimento en condicionamiento clásico. Pavlov tenía un perro, llamado Vampiro, que “había sido entrenado, a través de experimentos de salivación, para reaccionar de manera diferente a dos imágenes: una elipse y un círculo. Una forma sería reforzada, la otra suprimida. A medida que las elipses se volvían cada vez más redondeadas y menos ovaladas, la tarea se hizo más difícil hasta que finalmente el vampiro no pudo distinguir las dos formas. Y entonces el pobre perro se quebró. Originalmente tranquilo por naturaleza, comenzó a gritar y correr en círculos, habitualmente ladrando sin razón aparente y babeando copiosamente.”(Johnson, 2014)
La similitud entre las reacciones de CORA y de Vampiro nos hacen sospechar que quizá no se trate de fenómenos enteramente diferentes entre sí.
Pensar, con todo el cuerpo
¿Siguen aquí? Pensé que ya se habrían espantado, este artículo está superando incluso mis niveles normales de nerdismo. Sigamos un poco más entonces.
¿Por qué las tortugas mecánicas de Walter son relevantes? Porque proporcionan una demostración contundente de que conductas complejas pueden surgir no por haber sido programadas, sino como propiedades emergentes a partir de procesos aparentemente simples que no dependen de un núcleo o cerebro central, sino del organismo todo interactuando con el ambiente.
Las conductas de Elmer, Elsie y CORA dependen de todas las partes de su cuerpo, y de la interacción de estas con el ambiente; remover un tubo de vacío tiene efectos tan dramáticos como remover las ruedas de propulsión o la celda fotoeléctrica. Asimismo, las peculiaridades de su conducta (“reconocerse” en un espejo), surgen de la interacción con ciertos aspectos del ambiente.
Pasemos ahora a un ejemplo un poco más ruidoso. Como todo el mundo sabe (lo dicen todos los días en los programas de TV de la tarde), las hembras de grillos tienen una conducta de fonotaxia, es decir, se mueven hacia ciertos sonidos. Las hembras son atraídas por el canto de los grillos machos, moviéndose hacia el sonido más fuerte, pero sólo reconocen un canto específico, con cierto patrón rítmico, que es propio de cada especie.
¿Cómo explicar esto? Si quisiéramos usar un abordaje representacional, como el que solemos usar para analizar la cognición humana, podríamos postular que las hembras registran los sonidos del ambiente, discriminan los cantos propios de la especie comparándolo con un modelo mental, para a continuación triangular la posición y dirigirse hacia ella, etc. Podríamos especular que en el cerebro de los grillos hay un módulo específicamente dedicado a esto.
Nada más lejos de lo que realmente sucede, que es fascinante.
Los grillos poseen un sistema de audición de dos vías, que es inherentemente direccional. Poseen un tímpano ubicado en las patas, que recibe sonidos de dos maneras: a) directamente a través del aire y b) a través de un conducto interno que termina en unas aperturas en el lomo.
Como el sonido requiere de cierto tiempo para viajar en el aire, cuando un sonido llega al grillo llega en distintos momentos a cada tímpano. Esto activa un par de interneuronas conectadas a cada tímpano, que a su vez están conectadas a las patas del grillo. De esta manera, la hembra del grillo no necesita triangular la posición para orientarse: basta con que gire en la dirección de la interneurona que se activó primero. La regla es muy simple: girar en la dirección de la interneurona que se active primero.
El canto del grillo macho es rítmico, empieza y termina a intervalos regulares. Esto se debe a que una vez activadas las interneuronas necesitan unos momentos para volver al estado de reposo, por lo cual si el sonido fuese continuo o demasiado rápido ambas se activarían a la vez y no se podría distinguir qué interneurona se activó primero, por lo cual la hembra se perdería. Si por el contrario, el canto fuera demasiado lento, con sonidos muy espaciados, la hembra perdería el rumbo, como si usara un GPS que actualizara la información cada media hora.
Tampoco la hembra necesita “filtrar” deliberadamente los sonidos del ambiente: sucede que el conducto interno no transmite bien los sonidos difusos del ambiente sino sólo los sonidos de cierta frecuencia –la frecuencia del canto de los grillos machos. Solo sonidos de esa frecuencia llegan por el conducto hasta el tímpano y activan las interneuronas. Por eso mismo se orientan hacia los cantos de mayor volumen (que suelen ser también los más cercanos), porque son los que más activan las interneuronas. Y de esta manera también se pueden sortear obstáculos, siguiendo el sonido del lado que se active primero. El “análisis” del sonido es de esta manera hecho no por el cerebro sino por el cuerpo.
En base a esto, una investigadora llamada Barbara Webb, junto con su equipo, diseñó unos robots para investigar la fonotaxia. Estos grillos robots fueron construidos a semejanza a los grillos reales, con micrófonos en lugar de tímpanos y ruedas en lugar de patas, pero con una conexión similar entre los micrófonos y las ruedas. Los experimentos consistieron entonces en ubicar un par de parlantes para observar la respuesta de los grillos robots. Estas fuentes de sonido reprodujeron sonidos rítmicos a una frecuencia determinada para ver si podrían “atraer” a los grillos robots.
Música para robots. Y estos robots, que no tenían otra programación más que “moverse en la dirección del micrófono que se activa primero” -Webb señala que sólo usaron 100 líneas de código- efectivamente se movieron hacia los parlantes de una manera similar a la de los grillos (Webb, 1996). Y sí, también hay videos de los grillos robot:
Nuevamente: procesos simples que en la interacción con el ambiente dan lugar a conductas complejas, sin necesidad de cerebros complejos. Las tortugas mecánicas y los grillos robots nos invitan a pensar que hay otras formas de pensar las conductas complejas y que no todo gira en torno al cerebro. Nuestro hábito de pensar a la cognición como algo vinculado exclusivamente al cerebro quizá termine siendo un obstáculo a la hora de comprenderla.
Barrett lo dice así “Tenemos que considerar a la cognición de manera más amplia –como la forma en la cual los animales conocen y se involucran con sus ambientes, y no simplemente como una cuestión de tener “procesos de pensamiento” internos que sean más o menos similares a los nuestros ”(Barrett, 2011)
Skinnerbots
Las tortugas de Walter y los grillos nos permiten observar procesos sencillos de interacción con el ambiente, pero a medida que la tecnología fue mejorando, fue posible construir máquinas más sofisticadas, capaces de desplegar fenómenos conductuales más complejos. En 1997 dos investigadores, Touretzky y Saksida, presentaron un artículo describiendo el condicionamiento de lo que ellos llamaron un Skinnerbot: “robots autónomos con aprendizaje que emplean estrategias y exhiben efectos conductuales característicos del aprendizaje instrumental” (Touretzky & Saksida, 1996, 1997).
Un Skinnerbot es un robot dotado con un programa que puede aprender en base a recompensas que quien investiga puede administrar con un control remoto (un clicker, digamos), que es el equivalente a una recompensa. Touretzky y Saksida desarrollaron un robot, al que llamaron Amelia, que podía aprender en base a recompensas y emitir sonidos que informaban de su estado. Los investigadores pudieron moldear conductas en Amelia en base a reforzamiento simple.
Como lo describe un reportero: “Por ejemplo, un experimento es enseñarle a Amelia a recoger perros de juguete, colocando juguetes rosas en una caja y colocando juguetes verdes en otra. Al principio, Amelia sólo sabe de manera innata que puede recoger juguetes y ponerlos en cajas. Ella hace esto al azar, emitiendo sonidos que indican que no sabe lo que se espera de ella. Cuando por azar pone un juguete verde en una caja designada para juguetes verdes, Saksida presiona el control remoto. El cerebro electrónico de Amelia nota que algo bueno ha sucedido y Amelia emite un alegre pitido electrónico. Cuando el experimento continúa, Amelia descubre que colocar un juguete rosa en la caja de juguetes verdes no le da ningún resultado. Ella registra desilusión por no haber recibido el premio que esperaba. Eventualmente, ella aprende que puede ser recompensa por colocar el juguete rosado en la caja de juguetes rosados.”
En otro experimento el entrenador recompensó a Amelia cada vez que se acercase a él, lo cual resultó en Amelia siguiendo al entrenador por todo el laboratorio. Si alguna vez han leído al respecto o si han intentado entrenar un animal con un clicker, notarán que el proceso es notablemente similar.
En las últimas décadas, se han propuesto y desarrollado un buen número de robots e inteligencias artificiales basadas en los principios de aprendizaje clásico y operante. Estos principios han tenido variadas aplicaciones, tales como ayudar a que los robots aprendan a mantener el equilibrio (Zhang, Ruan, Xiao, & Huang, 2017), navegar laberintos sin ayuda (Dumesnil, Beaulieu, & Boukadoum, 2016), mejorar las respuestas de robots sociales (Dominguez, Zalama, García-Bermejo, & Pulido, 2006), simulaciones de computadora para estudiar conducta verbal (Hutchison, 1998), entre otros.
Análisis conductual y robótica: ¿para qué?
Podemos preguntarnos, llegados a este punto, cuál es la utilidad del diálogo entre análisis conductual y la disciplina de la robótica en sentido amplio (incluyendo desde robots hasta inteligencia artificial y simulaciones). William Hutchinson, en un artículo titulado El papel central del análisis conductual en la robótica moderna, y viceversa, enumera tres impactos principales que este cruce puede tener.
En primer lugar, nos sirve para aprender. Por ejemplo, se han utilizado simulaciones de computadora para investigación. En una simulación es posible especificar para un organismo digital las contingencias, las relaciones funcionales a investigar, y analizar la conducta resultante. De hecho, varias investigaciones han utilizado simulaciones de computadora para investigar cuestiones conductuales (Catania, 2005; Epstein, 1986; Kemp & Eckerman, 2001).
En segundo lugar, nos sirve para probar que es posible generar conductas complejas a partir de procesos simples. La construcción de un robot o de un software con principios operantes que puede realizar conductas complejas es una demostración que los principios conductuales pueden ser suficientes para generar los fenómenos analizados. “Un organismo computarizado operante puede tener exactamente las propiedades que especificamos y ninguna otra (…) Podemos también controlar y registrar cada detalle de la historia del organismo computarizado mientras creamos historias ambientales que aíslan relaciones causales (…) Cuando un organismo operante diseñado por nosotros adquiere conducta verbal en un ambiente bajo nuestro completo control, aún no habremos probado que esta es la forma en la cual los humanos adquieren conducta verbal, pero habremos probado que el aprendizaje operante es suficiente para producir esa conducta.”(Hutchison, 1998)
En tercer lugar, y esto más desde el lado de la robótica, el uso de principios conductuales permite resolver una cuestión crucial: la creación de ONB autónomos, que puedan aprender de la experiencia y que tengan cierto grado de autonomía, es decir, que no requieran ser programados para cada actividad. “Dotar a los robots de un sistema operante completo, incluyendo sus propios valores primarios tales como energía eléctrica (…) tiene un gran valor práctico al permitir a los robots aprender de su propia experiencia en lugar de necesitar la constante provisión de consecuencias de parte de un instructor humano” (Hutchinson, 2012)
Finalmente Hutchinson(2012) resume de esta manera el papel que el análisis conductual puede jugar en esto: “Los analistas de comportamiento son los más adecuados para liderar el desarrollo de inteligencia en estos robots emergentes, y hacerlo sería valioso para nosotros. La tecnología nos brinda mejores formas de expresar y probar nuestras formulaciones científicas, nos permite demostrar a personas ajenas a la disciplina la suficiencia de nuestras formulaciones y nos brinda roles valiosos en una industria importante, en la que podemos proporcionar una experiencia extremadamente relevante de la cual aquellos ajenos al análisis de la conducta son en gran parte ignorantes”
Cerrando
Creo que más allá de las aplicaciones específicas, el diálogo entre robótica y ciencia conductual nos permite pensar algunos aspectos amplios con respecto a la psicología humana, y en particular con respecto a la forma en la cual teorizamos. Si consideramos los robots que hemos descripto aquí podemos hacer algunas observaciones.
En primer lugar, estos robots señalan que el cerebrocentrismo, la tendencia a explicar todo a partir de cerebro, puede alejarnos de las respuestas correctas, especialmente cuando nos lleva a ignorar la forma en la cual la conducta surge como interacción entre el organismo completo y el ambiente. Por este motivo es que el análisis conductual siempre ha tenido una perspectiva holística y opuesta al reduccionismo.
En segundo lugar diría que estos ejemplos sugieren que es posible comprender conductas complejas a través de la interacción de procesos simples. La psicología tiende favorecer las explicaciones complejas y especulativas, y quizá no siempre sea la mejor idea. Los principios conductuales más conocidos, como los de reforzamiento, castigo, discriminación, respuestas relacionales, etc., son procesos relativamente simples, pero su combinación e interacción permite dar cuenta de fenómenos enormemente complejos. Como ejemplo podemos tomar la demostración de Skinner de que las conductas supersticiosas pueden ser explicadas a partir de la sola aplicación ciertos programas de reforzamiento, sin necesidad de apelar a fenómenos más complejos (Skinner, 1992).
Volviendo a citar a Barrett (cuyo libro, Beyond the Brain, recomiendo calurosamente): “la complejidad de la conducta del animal no es puramente un producto de su complejidad interna. La “parábola de la hormiga” de Herbert Simons ilustra vívidamente este punto. Imaginen una hormiga caminando en una playa, e imaginen la trayectoria que traza al moverse. La trayectoria mostraría un montón de giros y desvíos, y sería muy irregular y complicada. Uno podría suponer entonces que la hormiga tiene habilidades internas de navegación igualmente complicadas, y trataría de descubrirlas analizando la trayectoria para inferir las reglas y mecanismos que podrían producir un camino tan complejo. La complejidad de la trayectoria, sin embargo ‘es realmente una complejidad en la superficie de la playa, no una complejidad de la hormiga’. De hecho, la hormiga puede estar usando un conjunto de reglas muy simples: es la interacción de estas reglas con el ambiente lo que efectivamente produce una trayectoria compleja, no la hormiga en sí misma”(Barrett, 2011, p.42)
En tercer lugar, creo, estos ejemplos muestran que es peligroso hacer inferencias de intencionalidad o procesos internos a partir de la conducta observada. Si camufláramos un poco a las tortugas mecánicas de Walter para hacerlas pasar por un animal, un observador poco avisado podría pensar que las tortugas reconocen su propia imagen, cortejan y compiten con otras tortugas, e incluso se “angustian” ante la incertidumbre.
A medida que les pedimos a los ONB que ocupen tareas más y más complejas, nos vamos encontrando con un espejo que cada vez está más y más pulido, devolviéndonos una imagen que cada vez se parece más a nosotros. Las distopías en ciencia ficción suelen jugar con una idea aterradora: los robots van a dominar a los humanos (Matrix, Terminator, por ejemplo). Yo creo que la ciencia ofrece una idea bastante más escalofriante: la idea de que quizá, al final del camino, nos encontremos con que después de todo no somos tan diferentes.
¡Nos leemos la próxima!
Referencias bibliográficas:
- Barrett, L. (2011). Beyond the brain: how body and environment shape animal and human minds. Princeton: Princeton University Press.
- Catania, A. C. (2005). The operant reserve: A computer simulation in (accelerated) real time. Behavioural Processes, 69(2), 257–278. https://doi.org/10.1016/j.beproc.2005.02.009
- Dominguez, S., Zalama, E., García-Bermejo, J. G., & Pulido, J. (2006). Robot learning in a social robot. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 4095 LNAI, 691–702. https://doi.org/10.1007/11840541_57
- Dumesnil, E., Beaulieu, P. O., & Boukadoum, M. (2016). Robotic implementation of classical and Operant Conditioning as a single STDP learning process. Proceedings of the International Joint Conference on Neural Networks, 2016–Octob, 5241–5247. https://doi.org/10.1109/IJCNN.2016.7727892
- Epstein, R. (1986). Simulation Research in the Analysis of Behavior. Research Methods in Applied Behavior Analysis, 12(2), 127–155. https://doi.org/10.1007/978-1-4684-8786-2_7
- Hayward, R. (2001). The Tortoise and the Love-Machine: Grey Walter and the Politics of Electroencephalography. Science in Context, 14(04), 615–641. https://doi.org/10.1017/S0269889701000278
- Hutchison, W. R. (1998). Computer Simulations of Verbal Behavior for Research and Persuasion. The Analysis of Verbal Behavior, 15(1), 117–120. https://doi.org/10.1007/bf03392931
- Hutchison, W. R. (2012). The central role for behavior analysis in modern robotics, and vice versa. Behavior Analyst, 35(1), 29–35. https://doi.org/10.1007/BF03392262
- Inhelder, B., & Tanner, J. M. (Eds.). (1956). Discussions on Child Development: Volume two. Tavistock Publications.
- Johnson, G. (2014). Restoring a Master’s Voice. Retrieved December 2, 2019, from https://www.nytimes.com/2014/12/23/science/ivan-pavlov-sought-a-grand-theory-of-the-mind-not-drooling-dogs.html
- Kemp, S. M., & Eckerman, D. A. (2001). Why Simulate? Revista Brasileira de Terapia Comportamental e Cognitiva, 3(1), 25–35.
- Skinner, B. F. (1992). “Superstition” in the pigeon. Journal of Experimental Psychology: General, 121(3), 273–274. https://doi.org/10.1037/0096-3445.121.3.273
- Touretzky, D. S., & Saksida, L. M. (1996). Skinnerbots. In P. Maes, M. J. Mataric, J.-A. Meyer, J. Pollack, & S. W. Wilson (Eds.), From Animals to Animats 4: Proceedings ofthe Fourth International Conference on Simulation ofAdaptive Behavior (SAB96) (pp. 285–294). The MIT Press.
- Touretzky, D. S., & Saksida, L. M. (1997). Operant Conditioning in Skinnerbots. Adaptive Behavior, 5(3–4), 219–247. https://doi.org/10.1177/105971239700500302
- Walter, W. G. (1950). An Imitation of Life. Scientific American, 182(5), 42–45. https://doi.org/10.1038/scientificamerican0550-42
- Webb, B. (1996). A Cricket Robot. Scientific American. https://doi.org/10.1038/scientificamerican1296-94
- Zhang, X., Ruan, X., Xiao, Y., & Huang, J. (2017). Sensorimotor self-learning model based on operant conditioning for two-wheeled robot. Journal of Shanghai Jiaotong University (Science), 22(2), 148–155. https://doi.org/10.1007/s12204-017-1814-8