Tendencias21

Nuevos enfoques en el estudio de la mente

La cognición se entiende hoy como una función de supervivencia que sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva. Este nuevo paradigma científico ha dado origen a una Ciencia Cognitiva “corporizada” y a una “Nueva Inteligencia Artificial”. Ambas consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con el entorno. Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics). Por Sergio Moriello.

Nuevos enfoques en el estudio de la mente

El estudio de la mente humana comenzó hace varios siglos atrás, pero se aceleró hace relativamente poco tiempo con el inicio de la Ciencia Cognitiva (de ahora en más, CC). Por otra parte, la posibilidad de dotar a las máquinas con una especie de “protomente” (de forma más concreta, inteligencia) surge con el advenimiento de la Inteligencia Artificial (de ahora en más, IA). Quizás por casualidad, ambas disciplinas nacen en el mismo año: 1956 [Gardner, 1996]; es decir, hace casi 50 años.

La CC es “el estudio teórico y experimental de los mecanismos de codificación, almacenamiento, manipulación y transferencia de la información en sistemas naturales y artificiales que aseguran de manera integrada funciones de percepción, razonamiento y producción” (producción, en el sentido de actuación, de ejecutar una acción visible) [Engel, 1993, p. 228].

Se trata de un esfuerzo interdisciplinario que toma elementos de la Filosofía, la Psicología, la Antropología, la Neurociencia, la Inteligencia Artificial y la Lingüística. Estudia fundamentalmente los procesos –y las estructuras– relacionadas con la mente humana.

La IA, en cambio, “tiene por objeto el estudio del comportamiento inteligente en la máquina” [Nilsson, 2001, p. 1]. Se trata de una disciplina que basa sus raíces en la Ingeniería (Electrónica e Informática), en la Ciencia de la Computación, en la Lógica y en las Matemáticas.

La IA y la CC

Ambas disciplinas conciben al cerebro humano como una especie de mecanismo computacional biológico y postulan a la computadora digital convencional como su mejor metáfora funcional. Se basan sobre lo que Newell y Simon denominan “hipótesis del sistema de símbolos físicos”, el cual postula que un sistema de símbolos físicos posee los medios necesarios y suficientes para realizar una acción inteligente genérica [Rich y Knight, 1994, p. 6/7].

En otras palabras, la CC y la IA clásicas modelan a la materia gris como un dispositivo computacional físico –de muy alta complejidad– que procesa información operando sobre representaciones simbólicas internas a través de la aplicación secuencial de un conjunto de reglas almacenadas.

Dichas representaciones codifican –en el nivel cognitivo– aspectos relevantes del mundo a fin de ser utilizables y las reglas transforman esas representaciones en otras nuevas [Duffy y Joue, 2000]. De esta manera, si todos los estados mentales (como creencias, pensamientos y conceptos) pueden describirse como operaciones sobre representaciones simbólicas, la actividad mental (razonamiento, planificación, toma de decisión) es equivalente a la ejecución de un algoritmo.

Algunas limitaciones

Sin embargo, ambas disciplinas tienen algunas restricciones claves. La CC clásica no considera el nivel biológico-neurológico ni el social-cultural y tampoco presta mucha atención a los procesos emocionales ni a los contextuales.

La IA clásica, en cambio, presenta los problemas de “escalamiento” (los procedimientos que trabajan bien en escalas reducidas no siempre se comportan igualmente bien aplicados a versiones más grandes del mismo problema), de “marco” (cómo representar los hechos que cambian y aquellos que no lo hacen), de “falta de comprensión” (sus productos manejan símbolos que reconocen pero no comprenden) y de “sentido común” (esa elevada riqueza de conocimientos y comprensión inmediata del mundo, producto de la experiencia acumulada durante millones de años).

Asimismo, ambas describen y sintetizan algunos procesos mentales de “alto nivel” (como la cognición, el lenguaje y el razonamiento), subestimando los de “bajo nivel” (como la percepción, el movimiento y la interacción con el mundo real) en la generación de la conducta inteligente. Además, el procesamiento simbólico se encuentra localizado: la pérdida o mal funcionamiento de cualquier símbolo o regla puede terminar en un daño catastrófico [Ojeda, 2001].

Por último, este tipo de máquinas sólo puede procesar un tipo particular de símbolos: aquellos pertenecientes a un lenguaje formal sistemático, a un lenguaje lógico-matemático. El hombre, en cambio, es capaz de utilizar lenguajes descriptivos: sus elementos son palabras, nombres. En otros términos, una máquina de IA clásica puede resolver solamente un subconjunto de los problemas que el hombre enfrenta, aquellos representables en un lenguaje sistematizado.

La Robótica clásica

En cuanto al paradigma del control para los robots, la principal desventaja del acercamiento a la IA clásica es que el razonamiento explícito acerca de los efectos producidos por las acciones de bajo nivel son demasiados caros computacionalmente y consumen mucho tiempo como para generar un adecuado comportamiento de tiempo real en ambientes dinámicos complejos [Russell y Norvig, 1996, p. 831].

Es así que los robots clásicos son generalmente frágiles, en el sentido que no toleran muy bien el ruido en las señales entrantes y no pueden adaptarse a aquellas nuevas situaciones que no fueron previstas por su programador.

El mundo real no puede modelarse de manera confiable ya que es inabarcable y cuenta –además– con propiedades dinámicas e inciertas: se encuentra lleno de sorpresas.

Muchos de los problemas que los humanos resuelven cotidianamente parecen tener una inmanejable complejidad computacional para los sistemas diseñados en el marco de la IA clásica [Florian, 2003].

Un nuevo paradigma

La metáfora postulada por la CC y la IA clásicas es tentadora y –hasta cierto grado– fructífera, pero es válida sólo a un nivel relativamente abstracto, por lo que tiene una utilidad muy restringida. El modelo “des-encarnado” (desembodiment) y “des-situado” (desituated) de una computadora digital que procesa únicamente información estructurada y programada de antemano, sin interacción con el medio ambiente, no explica de forma adecuada el éxito adaptativo de muchas criaturas [Queiroz, 2000] [Ripalda, 2005] [Maccari, s/d].

El sistema cerebro-mente biológico procesa la información de un modo distribuido y está organizado de manera mucho más maleable y adaptable que una computadora secuencial, ya que funciona con relación al contexto y se modifica con cada nueva percepción y acción. Todo parece indicar que la metáfora convencional no es una base sólida sobre la cual construir máquinas con una inteligencia de nivel animal, y mucho menos humano [Kapor, 2002].

De allí que, a lo largo de su escasa historia, estas disciplinas modificaron su punto de vista. El primigenio enfoque dualista (el cerebro y la mente son dos cosas diferentes) se reemplazó por el monista (el cerebro y la mente son una y la misma cosa). De la inicial base psicológica y lingüística, se cambió a una base biológica y etológica.

Asimismo, de la antigua idea de imaginar a la mente como un programa secuencial (el software) que corre sobre un sustrato físico –un cerebro o una máquina– (el hardware) se pasó a considerar al sistema mente-cerebro como una red autónoma que emerge del “acoplamiento estructural” entre el cuerpo y el entorno, a través de la coordinación entre el sistema sensorial y el motor.

Nuevos enfoques en el estudio de la mente

Algunos cuestionamientos: el entorno

Actualmente se cuestiona una de las hipótesis fundamentales tanto del cognitivismo como del conexionismo: la idea de que el entorno existe de antemano, está fijado y acabado. El medio ambiente hoy se considera como un trasfondo, un ámbito o campo para la experiencia de la máquina –algo que la circunda, la rodea o la cerca–, que nunca se puede precisar en forma absoluta y definitiva, y que se modela continuamente a través de los actos que aquella efectúa [Varela, Thompson y Rosch, 1997, p. 166, 168 y 173].

En el caso de los organismos, su entorno está constituido por las condiciones exteriores que son relevantes para ellos, y está determinado por sus actividades. En otras palabras, los organismos no “se adaptan” a un medio fijado de antemano, a un “nicho” exterior autónomo, sino que –en cierta medida– “lo construyen” a través de sus propias actividades vitales [Lewontin, 2000, p. 51].

En consecuencia, tanto los organismos vivos como el ecosistema habitado por ellos se encuentran en un estado de constante flujo, de fluidez, en donde se modifican y reconstruyen continuamente al interactuar entre sí, “acoplándose” de forma mutua y recíproca [Lewontin, 2000, p. 76/8].

Algunos cuestionamientos: la representación

También se cuestiona la idea de que la cognición consista en recobrar –de modo pasivo– los rasgos extrínsecos del medio ambiente externo a través de un proceso de representación relativamente atinado. La cognición denota ahora al fenómeno de “hacer emerger” el significado a partir de realimentaciones sucesivas entre el organismo y el entorno local (tanto físico como cultural); surge a partir de una interacción “dialéctica”, de un “diálogo” entre ambos componentes.

El conocimiento depende, entonces, de las experiencias vividas que se originan debido a la posesión de un cuerpo con diferentes capacidades sensomotoras, las cuales están “encastradas” dentro de un entorno biológico, psicológico y cultural mucho más amplio [Varela, Thompson y Rosch, 1997, p. 203].

Por eso, conocer y vivir son cosas inseparables y se equivalen [Maturana y Varela, 2003, p. 58]. En síntesis, la cognición es una función de supervivencia, sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva.

La Nueva IA y la CC Corporizada

A partir de este nuevo paradigma científico (y hasta filosófico), y con el aporte de otras ciencias (como la Sistémica, la Cibernética, la Biología, la Sociología y la Etología), surgen la “CC corporizada” y la “Nueva IA” (o “Nouvelle IA”). Estudian la interacción dinámica entre el comportamiento de bajo nivel de los agentes completos (es decir, agentes corporizados y situados) y su entorno.

No manipulan representaciones simbólicas internas del mundo, sino que operan directamente sobre él a través de patrones de actividad sensomotoras; es decir, consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con su nicho ecológico [Kortmann, 2001].

Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics).

smoriello@redcientifica.com es periodista científico, Ingeniero en Electrónica y posgraduado en Administración Empresarial. Actualmente está finalizando la Maestría en Sistemas de Información. Es autor del libro Inteligencias Sintéticas.

Bibliografía

1. Duffy, B. y Joue, G. (2000): Intelligent Robots: The Question of Embodiment. Brain-Machine 2000 Workshop. 20/22 Diciembre.

2. Engel, P. (comp.) (1993): Psicología Ordinaria y Ciencias Cognitivas. Barcelona, Editorial Gedisa.

3. Florian, R. (2003): Autonomous artificial intelligent agents Technical Report Coneural, 4 de febrero.

4. Gardner, H. (1996): La nueva ciencia de la mente. Barcelona, Ediciones Paidós, 2° reimpresión.

5. Kapor, M. (2002): Why I Think I Will Win. KurzweilAI.net, 9 de abril.

6. Kortmann, R. (2001). Embodied cognitive science. Primer simposio alemán de inteligencia corporizada. Universidad Utrecht, Utrecht, Holanda.

7. Lewontin, R. (2000): Genes, organismo y ambiente. Barcelona, Editorial Gedisa.

8. Maccari, A. (s/d): Le Reti Neurali e la Mente Analogica Neuroingegneria.

9. Maturana, H. y Varela, F. (2004): De máquinas y seres vivos. Autopoiesis: la organización de lo vivo. Buenos Aires, Editorial Universitaria y Editorial Lumen, 6° edición.

10. Nilsson, N. (2001): Inteligencia Artificial. Una nueva síntesis. Madrid, McGraw-Hill/Interamericana de España.

11. Ojeda, C., (2001): Francisco Varela y las ciencias cognitivas. Revista Chilena de Neuropsiquiatría, Nº 39, pág. 286/95.

12. Queiroz, J. (2000): Novos modelos de cognição encorporada, situada e contextualizada em Ciências Cognitivas. Revista Eletrônica Informação e Cognição. Marília, vol. 2, N° 2.

13. Rich, E. y Knight, K. (1994): Inteligencia Artificial. Madrid, Editorial McGraw Hill / Interamericana de España.

14. Ripalda, I. (2005): Algunas ideas de Gerald Edelman sobre el darwinismo neuronal. Revista Elementos, N° 57, vol. 12, Enero – Marzo, p. 51/3.

15. Russell, S. y Norvig, P. (1996): Inteligencia Artificial: un enfoque moderno. México, Editorial Prentice Hall Hispanoamericana.

16. Varela, F., Thompson, E. y Rosch, E. (1997): De cuerpo presente. Barcelona, Editorial Gedisa, 2° edición.

Sergio Moriello

Hacer un comentario

RSS Lo último de Tendencias21

  • Los abrazos alivian la ansiedad y la depresión, según un nuevo estudio 18 abril, 2024
    Los abrazos y otras formas de contacto físico pueden ayudar con la salud mental en personas de todas las edades, según una nueva revisión de 212 estudios previos. Aunque esto ya estaba claro, los expertos aún no habían podido determinar qué tipo de contacto es el que genera más ventajas y por qué.
    Pablo Javier Piacente
  • Corrientes de estrellas y materia oscura diseñaron a la Vía Láctea 18 abril, 2024
    Restos de galaxias absorbidas por la Vía Láctea conforman corrientes estelares que la diseñaron a lo lardo de su historia. Algunas de esas fusiones podrían arrojar luz sobre el misterio de la materia oscura.
    Pablo Javier Piacente
  • Ya vivimos en un mundo de ciencia ficción 18 abril, 2024
    El Meta World Congress celebrado la semana pasada en Madrid ha dejado claro que los mundos virtuales y los videojuegos son el laboratorio de un Metaverso cada vez más inteligente y que la tecnología inmersiva cambiará el teatro y los conciertos. Un proceso de fusión de inteligencias llevará a la creatividad artificial a mezclarse con […]
    ALEJANDRO SACRISTÁN (enviado especial)
  • Descubren el pan más antiguo en Turquía: tiene 8.600 años 17 abril, 2024
    Un equipo de arqueólogos ha descubierto el pan más antiguo conocido en todo el mundo, que data del año 6600 a. C. Fue identificado en Çatalhöyük, un destacado asentamiento neolítico en Anatolia central, Turquía.
    Pablo Javier Piacente
  • Detectan un enorme agujero negro dormido en nuestra galaxia 17 abril, 2024
    El agujero negro de masa estelar más monstruoso de la Vía Láctea es un gigante dormido que acecha cerca de la Tierra, según un nuevo estudio. Con una masa casi 33 veces mayor que la del Sol, esta colosal estructura cósmica yace oculta a menos de 2.000 años luz de nuestro planeta, en la constelación […]
    Pablo Javier Piacente
  • Los pájaros reviven en sus sueños experiencias reales 17 abril, 2024
    Una investigación increíble ha descubierto que los pájaros a veces sueñan que están defendiendo su territorio frente a rivales, mostrándose con una cresta erizada de plumas y con un trino asociado al enfrentamiento.
    Redacción T21
  • Descubren cómo Plutón consiguió su corazón 16 abril, 2024
    El misterio de cómo Plutón consiguió una característica gigante en forma de corazón en su superficie finalmente ha sido resuelto: los científicos lograron reproducir con éxito la forma inusual con simulaciones numéricas, atribuyéndola a un impacto gigante y lento en ángulo oblicuo. Se trató de una colisión con un cuerpo planetario de unos 700 kilómetros […]
    Pablo Javier Piacente
  • La vida podría existir desde los inicios del Universo 16 abril, 2024
    El físico Avi Loeb sostiene en un reciente artículo que los elementos para el desarrollo de la vida tal como la conocemos podrían estar presentes en el cosmos desde la formación de las primeras estrellas, unos 100 millones de años después del Big Bang. También postula que esta hipótesis podría comprobarse si la misión Dragonfly […]
    Pablo Javier Piacente
  • Crean un acelerador de partículas en miniatura con aplicaciones médicas 16 abril, 2024
    Investigadores alemanes han desarrollado un acelerador de electrones que mide poco menos de medio milímetro de largo y 0,2 micrómetros de ancho, es decir, menos de una milésima de milímetro. Tiene aplicaciones en la investigación básica y permitirá crear nuevas herramientas de radioterapia. Entrevista con sus protagonistas, Peter Hommelhoff y Stefanie Kraus.
    Oscar William Murzewitz (Welt der Physik)/T21
  • Revelan la primera molécula fractal en la naturaleza 15 abril, 2024
    Los científicos han descubierto una molécula en la naturaleza que sigue un patrón geométrico de autosimilitud, conocido como fractal. La enzima microbiana denominada citrato sintasa es la primera estructura fractal molecular ensamblada directamente en la naturaleza que ha logrado identificarse hasta el momento. Los especialistas creen que este fractal puede representar un accidente evolutivo.
    Pablo Javier Piacente