Tendencias 21. Ciencia, tecnología, sociedad y cultura




Nuevos enfoques en el estudio de la mente

Se cuestiona el enfoque central de la Ciencia Cognitiva y la Inteligencia Artificial clásicas en favor de un modelo corporizado


La cognición se entiende hoy como una función de supervivencia que sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva. Este nuevo paradigma científico ha dado origen a una Ciencia Cognitiva “corporizada” y a una “Nueva Inteligencia Artificial”. Ambas consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con el entorno. Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics). Por Sergio Moriello.



Centre for Research in Cognitive Science
Centre for Research in Cognitive Science
El estudio de la mente humana comenzó hace varios siglos atrás, pero se aceleró hace relativamente poco tiempo con el inicio de la Ciencia Cognitiva (de ahora en más, CC). Por otra parte, la posibilidad de dotar a las máquinas con una especie de “protomente” (de forma más concreta, inteligencia) surge con el advenimiento de la Inteligencia Artificial (de ahora en más, IA). Quizás por casualidad, ambas disciplinas nacen en el mismo año: 1956 [Gardner, 1996]; es decir, hace casi 50 años.

La CC es “el estudio teórico y experimental de los mecanismos de codificación, almacenamiento, manipulación y transferencia de la información en sistemas naturales y artificiales que aseguran de manera integrada funciones de percepción, razonamiento y producción” (producción, en el sentido de actuación, de ejecutar una acción visible) [Engel, 1993, p. 228].

Se trata de un esfuerzo interdisciplinario que toma elementos de la Filosofía, la Psicología, la Antropología, la Neurociencia, la Inteligencia Artificial y la Lingüística. Estudia fundamentalmente los procesos –y las estructuras– relacionadas con la mente humana.

La IA, en cambio, “tiene por objeto el estudio del comportamiento inteligente en la máquina” [Nilsson, 2001, p. 1]. Se trata de una disciplina que basa sus raíces en la Ingeniería (Electrónica e Informática), en la Ciencia de la Computación, en la Lógica y en las Matemáticas.

La IA y la CC

Ambas disciplinas conciben al cerebro humano como una especie de mecanismo computacional biológico y postulan a la computadora digital convencional como su mejor metáfora funcional. Se basan sobre lo que Newell y Simon denominan “hipótesis del sistema de símbolos físicos”, el cual postula que un sistema de símbolos físicos posee los medios necesarios y suficientes para realizar una acción inteligente genérica [Rich y Knight, 1994, p. 6/7].

En otras palabras, la CC y la IA clásicas modelan a la materia gris como un dispositivo computacional físico –de muy alta complejidad– que procesa información operando sobre representaciones simbólicas internas a través de la aplicación secuencial de un conjunto de reglas almacenadas.

Dichas representaciones codifican –en el nivel cognitivo– aspectos relevantes del mundo a fin de ser utilizables y las reglas transforman esas representaciones en otras nuevas [Duffy y Joue, 2000]. De esta manera, si todos los estados mentales (como creencias, pensamientos y conceptos) pueden describirse como operaciones sobre representaciones simbólicas, la actividad mental (razonamiento, planificación, toma de decisión) es equivalente a la ejecución de un algoritmo.

Algunas limitaciones

Sin embargo, ambas disciplinas tienen algunas restricciones claves. La CC clásica no considera el nivel biológico-neurológico ni el social-cultural y tampoco presta mucha atención a los procesos emocionales ni a los contextuales.

La IA clásica, en cambio, presenta los problemas de “escalamiento” (los procedimientos que trabajan bien en escalas reducidas no siempre se comportan igualmente bien aplicados a versiones más grandes del mismo problema), de “marco” (cómo representar los hechos que cambian y aquellos que no lo hacen), de “falta de comprensión” (sus productos manejan símbolos que reconocen pero no comprenden) y de “sentido común” (esa elevada riqueza de conocimientos y comprensión inmediata del mundo, producto de la experiencia acumulada durante millones de años).

Asimismo, ambas describen y sintetizan algunos procesos mentales de “alto nivel” (como la cognición, el lenguaje y el razonamiento), subestimando los de “bajo nivel” (como la percepción, el movimiento y la interacción con el mundo real) en la generación de la conducta inteligente. Además, el procesamiento simbólico se encuentra localizado: la pérdida o mal funcionamiento de cualquier símbolo o regla puede terminar en un daño catastrófico [Ojeda, 2001].

Por último, este tipo de máquinas sólo puede procesar un tipo particular de símbolos: aquellos pertenecientes a un lenguaje formal sistemático, a un lenguaje lógico-matemático. El hombre, en cambio, es capaz de utilizar lenguajes descriptivos: sus elementos son palabras, nombres. En otros términos, una máquina de IA clásica puede resolver solamente un subconjunto de los problemas que el hombre enfrenta, aquellos representables en un lenguaje sistematizado.

La Robótica clásica

En cuanto al paradigma del control para los robots, la principal desventaja del acercamiento a la IA clásica es que el razonamiento explícito acerca de los efectos producidos por las acciones de bajo nivel son demasiados caros computacionalmente y consumen mucho tiempo como para generar un adecuado comportamiento de tiempo real en ambientes dinámicos complejos [Russell y Norvig, 1996, p. 831].

Es así que los robots clásicos son generalmente frágiles, en el sentido que no toleran muy bien el ruido en las señales entrantes y no pueden adaptarse a aquellas nuevas situaciones que no fueron previstas por su programador.

El mundo real no puede modelarse de manera confiable ya que es inabarcable y cuenta –además– con propiedades dinámicas e inciertas: se encuentra lleno de sorpresas.

Muchos de los problemas que los humanos resuelven cotidianamente parecen tener una inmanejable complejidad computacional para los sistemas diseñados en el marco de la IA clásica [Florian, 2003].

Un nuevo paradigma

La metáfora postulada por la CC y la IA clásicas es tentadora y –hasta cierto grado– fructífera, pero es válida sólo a un nivel relativamente abstracto, por lo que tiene una utilidad muy restringida. El modelo “des-encarnado” (desembodiment) y “des-situado” (desituated) de una computadora digital que procesa únicamente información estructurada y programada de antemano, sin interacción con el medio ambiente, no explica de forma adecuada el éxito adaptativo de muchas criaturas [Queiroz, 2000] [Ripalda, 2005] [Maccari, s/d].

El sistema cerebro-mente biológico procesa la información de un modo distribuido y está organizado de manera mucho más maleable y adaptable que una computadora secuencial, ya que funciona con relación al contexto y se modifica con cada nueva percepción y acción. Todo parece indicar que la metáfora convencional no es una base sólida sobre la cual construir máquinas con una inteligencia de nivel animal, y mucho menos humano [Kapor, 2002].

De allí que, a lo largo de su escasa historia, estas disciplinas modificaron su punto de vista. El primigenio enfoque dualista (el cerebro y la mente son dos cosas diferentes) se reemplazó por el monista (el cerebro y la mente son una y la misma cosa). De la inicial base psicológica y lingüística, se cambió a una base biológica y etológica.

Asimismo, de la antigua idea de imaginar a la mente como un programa secuencial (el software) que corre sobre un sustrato físico –un cerebro o una máquina– (el hardware) se pasó a considerar al sistema mente-cerebro como una red autónoma que emerge del “acoplamiento estructural” entre el cuerpo y el entorno, a través de la coordinación entre el sistema sensorial y el motor.

Usernomics
Usernomics
Algunos cuestionamientos: el entorno

Actualmente se cuestiona una de las hipótesis fundamentales tanto del cognitivismo como del conexionismo: la idea de que el entorno existe de antemano, está fijado y acabado. El medio ambiente hoy se considera como un trasfondo, un ámbito o campo para la experiencia de la máquina –algo que la circunda, la rodea o la cerca–, que nunca se puede precisar en forma absoluta y definitiva, y que se modela continuamente a través de los actos que aquella efectúa [Varela, Thompson y Rosch, 1997, p. 166, 168 y 173].

En el caso de los organismos, su entorno está constituido por las condiciones exteriores que son relevantes para ellos, y está determinado por sus actividades. En otras palabras, los organismos no “se adaptan” a un medio fijado de antemano, a un “nicho” exterior autónomo, sino que –en cierta medida– “lo construyen” a través de sus propias actividades vitales [Lewontin, 2000, p. 51].

En consecuencia, tanto los organismos vivos como el ecosistema habitado por ellos se encuentran en un estado de constante flujo, de fluidez, en donde se modifican y reconstruyen continuamente al interactuar entre sí, “acoplándose” de forma mutua y recíproca [Lewontin, 2000, p. 76/8].

Algunos cuestionamientos: la representación

También se cuestiona la idea de que la cognición consista en recobrar –de modo pasivo– los rasgos extrínsecos del medio ambiente externo a través de un proceso de representación relativamente atinado. La cognición denota ahora al fenómeno de “hacer emerger” el significado a partir de realimentaciones sucesivas entre el organismo y el entorno local (tanto físico como cultural); surge a partir de una interacción “dialéctica”, de un “diálogo” entre ambos componentes.

El conocimiento depende, entonces, de las experiencias vividas que se originan debido a la posesión de un cuerpo con diferentes capacidades sensomotoras, las cuales están “encastradas” dentro de un entorno biológico, psicológico y cultural mucho más amplio [Varela, Thompson y Rosch, 1997, p. 203].

Por eso, conocer y vivir son cosas inseparables y se equivalen [Maturana y Varela, 2003, p. 58]. En síntesis, la cognición es una función de supervivencia, sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva.

La Nueva IA y la CC Corporizada

A partir de este nuevo paradigma científico (y hasta filosófico), y con el aporte de otras ciencias (como la Sistémica, la Cibernética, la Biología, la Sociología y la Etología), surgen la “CC corporizada” y la “Nueva IA” (o “Nouvelle IA”). Estudian la interacción dinámica entre el comportamiento de bajo nivel de los agentes completos (es decir, agentes corporizados y situados) y su entorno.

No manipulan representaciones simbólicas internas del mundo, sino que operan directamente sobre él a través de patrones de actividad sensomotoras; es decir, consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con su nicho ecológico [Kortmann, 2001].

Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics).


Sergio Alejandro Moriello es periodista científico, Ingeniero en Electrónica y posgraduado en Administración Empresarial. Actualmente está finalizando la Maestría en Sistemas de Información. Es autor del libro Inteligencias Sintéticas.




Bibliografía

1. Duffy, B. y Joue, G. (2000): Intelligent Robots: The Question of Embodiment. Brain-Machine 2000 Workshop. 20/22 Diciembre.

2. Engel, P. (comp.) (1993): Psicología Ordinaria y Ciencias Cognitivas. Barcelona, Editorial Gedisa.

3. Florian, R. (2003): Autonomous artificial intelligent agents Technical Report Coneural, 4 de febrero.

4. Gardner, H. (1996): La nueva ciencia de la mente. Barcelona, Ediciones Paidós, 2° reimpresión.

5. Kapor, M. (2002): Why I Think I Will Win. KurzweilAI.net, 9 de abril.

6. Kortmann, R. (2001). Embodied cognitive science. Primer simposio alemán de inteligencia corporizada. Universidad Utrecht, Utrecht, Holanda.

7. Lewontin, R. (2000): Genes, organismo y ambiente. Barcelona, Editorial Gedisa.

8. Maccari, A. (s/d): Le Reti Neurali e la Mente Analogica Neuroingegneria.

9. Maturana, H. y Varela, F. (2004): De máquinas y seres vivos. Autopoiesis: la organización de lo vivo. Buenos Aires, Editorial Universitaria y Editorial Lumen, 6° edición.

10. Nilsson, N. (2001): Inteligencia Artificial. Una nueva síntesis. Madrid, McGraw-Hill/Interamericana de España.

11. Ojeda, C., (2001): Francisco Varela y las ciencias cognitivas. Revista Chilena de Neuropsiquiatría, Nº 39, pág. 286/95.

12. Queiroz, J. (2000): Novos modelos de cognição encorporada, situada e contextualizada em Ciências Cognitivas. Revista Eletrônica Informação e Cognição. Marília, vol. 2, N° 2.

13. Rich, E. y Knight, K. (1994): Inteligencia Artificial. Madrid, Editorial McGraw Hill / Interamericana de España.

14. Ripalda, I. (2005): Algunas ideas de Gerald Edelman sobre el darwinismo neuronal. Revista Elementos, N° 57, vol. 12, Enero - Marzo, p. 51/3.

15. Russell, S. y Norvig, P. (1996): Inteligencia Artificial: un enfoque moderno. México, Editorial Prentice Hall Hispanoamericana.

16. Varela, F., Thompson, E. y Rosch, E. (1997): De cuerpo presente. Barcelona, Editorial Gedisa, 2° edición.



Domingo, 19 de Junio 2005
Sergio Moriello
Artículo leído 33413 veces



Nota

Comente este artículo

1.Publicado por Llorente el 05/04/2008 11:17
Felicitaciones por una exposición clara, completa y al mismo tiempo concisa de un tema complicado, de lectura agil y comprensible pra cualquier profano en la materia.

2.Publicado por carmen el 25/01/2012 22:54
hola como estas bien

Nuevo comentario:
Twitter

Los comentarios tienen la finalidad de difundir las opiniones que le merecen a nuestros lectores los contenidos que publicamos. Sin embargo, no está permitido verter comentarios contrarios a las leyes españolas o internacionales, así como tampoco insultos y descalificaciones de otras opiniones. Tendencias21 se reserva el derecho a eliminar los comentarios que considere no se ajustan al tema de cada artículo o que no respeten las normas de uso. Los comentarios a los artículos publicados son responsabilidad exclusiva de sus autores. Tendencias21 no asume ninguna responsabilidad sobre ellos. Los comentarios no se publican inmediatamente, sino que son editados por nuestra Redacción. Tendencias21 podrá hacer uso de los comentarios vertidos por sus lectores para ampliar debates en otros foros de discusión y otras publicaciones.

Otros artículos de esta misma sección
< >