GARDNER, HOWARD - La Nueva Ciencia de La Mente (Historia de La Revolución Cognitiva) (OCR) (Por Ganz1912) PDF
GARDNER, HOWARD - La Nueva Ciencia de La Mente (Historia de La Revolución Cognitiva) (OCR) (Por Ganz1912) PDF
GARDNER, HOWARD - La Nueva Ciencia de La Mente (Historia de La Revolución Cognitiva) (OCR) (Por Ganz1912) PDF
LA NUEVA CIENCIA DE
LA MENTE
Historia de la revolución
cognitiva
...... E d ito r ia l P a id ó s
Buenos Aires • Barcelona «México
Titulo original: The M ind’s N ew Science. A History o f the Cognitive Revolution
Basic Books, Inc.,Publishers,New York
© Copyright by Howard Gardner, 1985
ISBN 0-465 -04634 -7
La reproducción total o parcial de este libro, en cualquier forma que sea, idéntica
o modificada, escrita a máquina, por el sistema “multigraph” , mimeógrafo, impre
so, por fotocopia, fotoduplicación,etc.,no autorizada por los editores, viola dere
chos reservados. Cualquier utilización debe ser previamente solicitada.
PREFACIO........................................................... . 2 ; : : . . ................... 13
Primera paite
LA REVOLUCION COGNITIVA
Segunda parte
LAS CIENCIAS COGNITIVAS: PERSPECTIVA HISTORICA
Tercera parte
HACIA UNA CIENCIA COGNITIVA E INTEGRADA:
EMPEÑOS ACTUALES, PERSPECTIVAS FUTURAS
INTRODUCCION..................................
Indice | V
Klivington y Eric Wanner, que apoyaron cabalmente mis empeños por llevar a la
práctica esta iniciativa algo riesgosa.
En el curso de mis estudios celebré entrevistas formales o mantuve conversa
ciones informales con decenas de científicos cognitivistas de este país y del extran
jero. Por lo que puedo recordar, ninguno de ellos se negó a dialogar conmigo, y
la mayoría —aun los que manifestaban su escepticismo acerca de la ciencia cogni-
tiva— me proporcionaron cordialmente toda la información que les pedí. Lamento
que en un momento dado tuviera que interrumpir estos encuentros para empezar
a escribir, y más aun no haber podido en definitiva examinar por escrito la obra de
muchos de estos estudiosos, de los que tanto aprendí. Desgraciadamente, con que
sólo hubiera incluido la mitad de los trabajos que merecen un comentario, este
libro habría alcanzado un tamaño varias veces mayor que el que tuvo a la postre.
Quiero mencionar y agradecer, en primer término, a las numerosas personas
que se ofrecieron de buen grado a discutir conmigo su obra o cuestiones vincula
das a la ciencia cognitiva (pido disculpas a aquellos que por inadvertencia pueda
haber omitido en esta lista): Jonathan Adler, Alian Allport, John Anderson,
Dana Ballard, Jon Barwise, Elizabeth Bates, Brent Berlín, Ned Block, Daniel
Bobrow, Margaret Boden, Stanley Brandes, Joan Bresnan, John Seely Brown,
Roger Brown, Jerome Bruner, Peter Bryant, Alfonso Caramazza, Noam Chomsky,
Gillian Cohén, Michael Colé, Roy D’Andrade, Daniel Dennett, Hubert Dreyfus,
Jerome Feldman, Charles Fillmore, Jerry Fodor, Michael Gazzaniga, Qifford
Geertz, Norman Geschwind (mi querido mentor, ya fallecido), Samuel Glucks-
berg, Nelson Goodman, Charles Gross, Patrick Hayes,' Geoffrey Hinton, Stephen
Isard, Philip Johnson-Laird, Ronald Kaplan, Paul Kay, Samuel Jay Keyser, Ste
phen Kosslyn, George Lakoff, Jean Lave, Jerome Lettvin, Robert Le Vine, Claude
Lévi-Strauss, Christopher Longuet-Higgins, John McCarthy, Jay McClelland, Jean
Mandler, Alexander Marshack, John Marshall, Jacques Mehler, Susanna Millar,
George Miller, Marvin Minsky, Julius Moravcsik, John Morton.Ulric Neisser, Freda
Newcombe, Alien Newell, Donald Norman, Daniel Osherson, Domenico Parisi,
Stanley Peters, Michael Posner, Karl Pribram, Hilary Putnam, Raj Reddy, Richard
Rorty, Eleanor Rosch, David Rumelhart, Roger Schank, Israel Scheffler, John
Searle, Robert Siegler, Herbert Simón, Aaron Sloman, Brlan CantweD Smith,
Stuart Sutherland, Leonard Talmy, Sheldon Wagner, Terry Winograd y Edgar
Zurif.
Varios amigos y colegas fueron lo bastante amables como para leer y comen
tar críticamente una o más versiones preliminares del libro. Por tal motivo, tengo
una deuda considerable con Margaret Boden, Hiram Brownell, Daniel Dennett,
Martha Farah, Josef Grodzinsky, Jerome Kagan, Benny Shanon, Eric Wanner, así
como con mi esposa, Ellen Winner, y varios lectores anónimos que transmitieron
sus útiles comentarios, críticas y palabras de aliento. Sé que me he beneficiado
mucho con sus aportes; y si,.como temo, aún quedan errores, desatinos o torpezas,
ellos corren por mi exclusiva cuenta.
Prefacb | '
Durante el período de varios años que duró la preparación d e esta obra, iwV
la fortuna de contar con la ayuda de Linda Levine, Susan McConnell, Chrir i
Meyer y Claudia Strauss, en calidad de auxiliares de investigación. Mara Krechpv
ky, que es mi auxiliar de investigación actual, me ha brindado una inestimaui
ayuda en la publicación del manuscrito, al cual aportó, además, coniribucii
sustanciales. Agradezco asimismo la ayuda prestada por Connie Wolf, de H a w <
y Carmella Loffredo, de la Fundación Sloan. En las sucesivas formas que fue aau;
tando, fue idóneamente copiado a máquina o en la procesadora de palabras
Dolly Appel, Damaris Chapín, Isabel Eccles, Nan Kortzy Laura Stephen-Swanr~ r
Tengo la certidumbre de que ellas compartirían la opinión de Samuel Johnson co?
respecto al Paraíso perdido de Milton: “ Ningún ser humano querría que fuese . .
largo” .
Igual que en mis tres libros anteriores, muchos miembros de la editorial Basi<
Books me ofrecieron felizmente su apoyo. En lo que atañe a la preparación d>.
obra, estoy enormemente agradecido a Judith Greissman, Jane Isay y Martin Kf
ler por su meditada reacción frente a versiones anteriores de la obra. Lindr
Carbone cumplió con suficiencia su función de directora del proyecto, al par
Phoebe Hoss, en su carácter de directora de desarrollo, me socorrió frent
muchos problemas expositivos y mostró además una extraña intuición para adv*'-
tir en qué puntos yo (y, a veces, la ciencia cognitiva) había fallado. Corre el riesgo
de convertirse ella misma en científica cognitiva en alguna otra vida.
No hay para mí mayor placer que el que me brinda la oportunidad de dedica
esta obra a mis padres.
HOWARD GARDNF’''
Cambridge, Massachusetts
Abril de 19c-
PRIMERA PARTE
LA REVOLUCION COGNITIVA
6
JÉ
20 i La nueva ciencia de la mente
pudiera haber una ciencia cognitiva, y mucho menos asumir la forma que tiene e
la. actualidad, si no hubiera existido la tradición filosófica que se remonta a .
griegos.
Por supuesto, estos temas organizadores no hacen sino rozar la superficie del
complejo territorio que forma el sustrato de cualquier disciplina científica. No
obstante, confio en transmitir con ellos de qué manera un lingüista enfoca las
cuestiones en debate, o cómo concibe un psicólogo un problema (y una solución),
o qué concepciones acerca de los procesos prevalecen en la neurociencia o en el
campo de la inteligencia artificial; Sólo mediante una inmersión.de esta índole en
las inquietudes diarias del científico cognitivo, extraídas de una ciencia particular,
pueden apreciarse las posibilidades (y dificultades) que surgen cuando especialis
tas de distintos campos colaboran en investigaciones conjuntas. Al final haré un
resumen evaluativo e indicaré cómo andan las cosas respecto de los principales
puntos en debate en cada ciencia cognitiva particular; evaluación que, a su vez,
sugerirá algunos de los factores principales que han estimulado a los científicos
cognitivistas a sumar sus fuerzas.
Si bien cada úna de estas reseñas históricas tiene autonomía propia.su yuxta
posición señala paralelos fascinantes e imprevisibles. Las ciencias rara vez surgen
en un vacío: factores tan dispares como la divulgación de los escritos esenciales de
Darwin, el estallido de las guerras, el surgimiento de grandes universidades,
tuvieron reverberaciones (a veces cataclísmicas) en campos en apariencia muy
distantes y que tal vez mantenían poco contacto entre sí. En la mayoría de los
casos, señalaré simplemente estos paralelos, pero al comienzo de la Parte III me
referiré más concretamente a ciertas fuerzas históricas que parecen haber ejercido
influencia en todas las ciencias cognitivas.
Una vez calibradas las ciencias cognitivas individuales, en la Parte III del libro,
paso a los trabajos actuales que constituyen la quintaesencia de la ciencia cogni
tiva. Así, en los capítulos 1 0 a 13 el foco se desplaza de los trabajos realizados
dentro de las disciplinas tradicionales hacia las líneas de investigación que se sitúan
más claramente en la intersección de varias disciplinas, y por ende pueden consi
derarse prototípicas de una ciencia cognitiva unificada. He tratado de referirme
siempre a los trabajos de mayor calidad, ya que si queremos evaluar la ciencia cog
nitiva como emprendimiento intelectual, debemos hacerlo tomando como base
sus ejemplos más destacados.
Los cuatro ensayos que componen esa parte del libro tienen una estructura
común. En consonancia con mi afirmación de que la ciencia cognitiva procura elu
cidar cuestiones filosóficas fundamentales, cada capítulo se inicia con un interro
gante epistemológico permanente: por ejemplo en el capítulo 10, nuestra manera
de percibir el mundo; en el capítulo 13, el grado de la racionalidad humana. En
los capítulos 10 a 13 se pasa progresivamente de cuestiones más circunscriptas a
otras que parecen más globales; y no es de sorprender que existan respuestas más
seguras para las primeras, en tanto que los temas globales siguen rodeados de
incógnitas.
He dejado para el capítulo final mis reflexiones personales acerca de la cien
cia cognitiva. En él paso revista a los temas fundamentales de ésta a la luz de la
1. Introducción: io que obró el Menón | 25
de la conducta, tal como la habían establecido Ivan Pavlov, B.F. Skinner, E.L.
Thomdike y J.B. Watson, podía dar cuenta de cualquier cosa que un individuo
hiciera, así como de las circunstancias en las cuales la hiciera. (Lo que un sujeto
-pensase carecía de valor para esta perspectiva, a menos que se redefiniera simple
mente su pensamiento como conducta encubierta.) Así como la mecánica había
explicado las leyes del mundo físico, los modelos mecanicistas basados en el arco
reflejo serían capaces de explicar la actividad humana.
El conductismo vino a responder a muchas inquietudes de la comunidad
científica, algunas de las cuales eran muy legítimas: el malestar por tener que
aceptar al pie de la letra los datos de la introspección, sin ninguna forma cientí
fica de control o posibilidad de refutación; la insatisfacción con conceptos vagos y
generales del tipo de “voluntad” o “propósito” , y el anhelo de explicar el com
portamiento humano apelando a las mismas construcciones teóricas que habían
sido aplicadas (aparentemente con gran éxito) al de los animales. Teniendo en
cuenta los problemas que había originado el introspeccionismo (sobre los cuales
nos explayaremos en el capítulo 4), el conductismo pareció una brisa de aire fres
co en las décadas iniciales de este siglo. No es de sorprender que rápidamente
atrajera y cautivase a las mejores mentalidades de toda una generación de estudio
sos.
No obstante, en retrospectiva, cabe sostener que se pagó un precio demasia
do alto por la adhesión estricta al conductismo. En tanto duró su imperio —o sea,
durante las décadas de 1920, 1930 y 1940—,-sólo fue posible aproximarse con
dificultades, furtivamente, a las cuestiones vinculadas a la naturaleza del lenguaje,
la planificación humana, la resolución de problemas, la imaginación, etc. —si es
que estos temas eran en alguna medida tolerados—. El artículo de Lashley crista
lizó una creciente conciencia, por parte de muchos científicos sensatos, de que la
adhesión a los cánones conductistas estaba volviendo imposible el estudio cientí
fico de la mente.
Lashley advirtió que para alcanzar nuevas intelecciones acerca del cerebro o
de las computadoras, y para que estas intelecciones pudieran incorporarse a las
riendas psicológicas, era imprescindible enfrentar frontalmente al conductismo.
Por ello, al comienzo de su artículo expresó su convencimiento de que cualquier
reoría acerca de la actividad humana debía dar cuenta de conductas organizadas
omplejas, como las de jugar al tenis, tocar un instrumento musical y, sobre todo,
expresarse en un lenguaje cualquiera. Comentó: “Los problemas que crea la orga-
íúzación del lenguaje me parecen típicos de casi cualquier otra actividad cerebral”
litado por Jeffress, 1951, pág. 121). En este aserto Lashley colocó en el centro
mismo de la psicología humana un tema que sus colegas conductistas habían rele
gado al olvido. Al mismo tiempo, añadió que tanto en la neuropsicología como en
: psicología, el marco teórico explicativo predominante —el de las cadenas asocia
tivas simples entre un estímulo y una respuesta—no era capaz de dar cuenta de
uinguna conducta ordenada en forma secuencial. La razón es que estas secuencias
2. Los cimientos de la ciencia cognitiva | í
Matemática y computación
Los años próximos al fin del siglo XIX y comienzo del siglo XX fueron
de excepcional importancia para la matemática y la lógica. Durante casi dos mile
nios había imperado la lógica del razonamiento silogístico desarrollada en la anti
güedad por Aristóteles; pero gracias a la obra del alemán Gottlob Frege, una nueva
forma de lógica, que implicaba la manipulación de símbolos abstractos, comenzó
a surgir hacia fines del siglo pasado. Y a comienzos de este siglo, como detallaré
en el capítulo 4, los lógicos matemáticos británicos Bertrand Russell y Alfred
North Whitehead procuraron, con éxito considerable, reducir las leyes básicas de
la aritmética a las proposiciones de la lógica elemental. La labor de Whitehead y
Russell influyó en toda una generación de pensadores orientados hacia la mate
mática, incluidos Norbert Wiener y John von Neumann, dos de los que más con
tribuyeron a cimentar la ciencia cognitiva.
En la década de 1930, los trabajos de lógica matemática que a la larga resul-
2. Los cimientos de la ciencia cognitiva | 3:
taron más significativos para la ciencia cognitiva fueron los.de Alan Turing, u:
matemático británico a la sazón relativamente desconocido. En 1936 Turin
propuso la idea de una máquina simple (que posteriormente fue denominad
“máquina de Turing”) capaz de realizar, en principio, cualquier cálculo conceb
ble. Las nociones en que se fundaba esta máquina “ teórica” eran muy element;
les. Todo lo que se necesitaba era una cinta de longitud infinita que pudiera pasa
por la máquina, donde un dispositivo de “escrutinio” [scanner] “leería” lo qu
había sobre la cinta. Esta se dividía en cuadrados idénticos, cada uno de los cuale
contenía o bien un espacio en blanco, o alguna especie de marca. La máquin
podía desarrollar cuatro clases de movimiento con la cinta: desplazarla a la dere
cha, desplazarla a la izquierda, borrar la marca o imprimirla. Con sólo estas opera
ciones sencillas, era capaz de ejecutar cualquier clase de programa o de plan que s<
expresara en un código binario (por ejemplo, un código de espacios en blanco y di
marcas). En términos más generales, cualquier tarea, en la medida en que une
pudiera explicitar con claridad los pasos necesarios para llevarla a cabo, podrí;
programarse y ejecutarse en la máquina de Turing, que simplemente exploran;
la cinta (cualquiera que fuese la longitud de ésta) y cumpliría con las instruccio
nes (Davis, 1958; McCorduck, 1979).
‘ La demostración práctica de Turing —y el teorema que así probó—tuvieron
enorme - importancia para los investigadores interesados en los dispositivos de
computación. Ella sugirió que mediante un código binario compuesto sólo de
“ceros” y “unos” sería posible inventar y ejecutar un número cualquiera de pro
gramas, y que podían fabricarse aparatos que operaran sobre la base de este prin
cipio. El propio Turing, al reflexionar acerca de las posibilidades de estos disposi
tivos dé computación, se volvió cada vez más entusiasta. En 1950 (poco antes de
su prematura muerte por suicidio, cuando contaba poco más de 40 años) sugirió
que era posible programar de tal modo una máquina de esta índole que nadie dife
renciaría sus respuestas a un interlocutor, de las que brindaría un ser humano;
esta idea quedó inmortalizada como “la prueba de la máquina de Turing” , que se
utiliza para refutar a cualquiera que dude de que una computadora puede real
mente pensar: se dice que una máquina programada ha pasado la prueba de Turing
si un observador es incapaz de distinguir sus respuestas de las de un ser humano
(Turing, 1963).
Muy pronto los científicos interesados en el pensamiento humano advirtie
ron las implicaciones de estas ideas, al darse cuenta de que si eran capaces de des
cribir con precisión los procesos de pensamiento o de conducta de un organismo,
podrían diseñar una máquina computadora que operara en forma idéntica a él.
Así, tal vez podría probarse en la computadora la verosimilitud de ciertas ideas
acerca del modo efectivo de funcionar de un ser humano, y aun construir máqui
nas de las que con seguridad pudiera afirmarse que pensaban como seres humanos.
Desarrollando las ideas de Turing, John von Neumann se empeñó en crear un.
programa para instruir a la máquina de Turing de modo tal que se reprodujera a sí'
34 | La nueva ciencia de la mente
E I modelo de la neurona
Una segunda línea de pensamiento, significativa para todos los que estaban
participando en la fundación de la ciencia cognitiva, fue expuesta a comienzos de
la década de 1940 por Warren McCulloch (el segundo orador del Simposio de Hix-
son) y Walter Pitts, un joven especialista en lógica. También en este caso la idea
cardinal era cautivante por su simplicidad, aunque el análisis matemático corres
pondiente estaba lejos de ser trivial McCulloch y Pitts (1943) demostraron que las
operaciones de una célula nerviosa y sus conexiones con otras (la llamada red
neural) podían ser representadas mediante un modelo lógico. Los nervios eran
equiparables a enunciados lógicos, y su propiedad de ser activados o no activados
(“todo o nada”) era comparable a las operaciones de cálculo proposicional, donde
un enunciado es o bien verdadero, o bien fabo (Heims, 1980, pág. 211). Según
este modelo, la neurona era activada, y a su vez activaba a otra neurona, del
mismo modo que un elemento o proposición de una secuencia lógica puede impli
car alguna otra proposición. Así, ya se tratase de enunciados lógicos o de neuro
nas, la entidad A más la entidad B puede implicar la entidad C. Además, era vero
símil establecer una analogía entre las neuronas y la lógica en términos de elec
tricidad, vale decir, con referencia a señales que pueden pasar o no a través de un
circuito. El resultado final de la demostración de McCulloch y Pitts se resume en
esta frase: “Todo lo que pueda describirse de manera exhaustiva e inequívoca
. . . es materializare mediante una red neural finita adecuada” (von Neumann,
citado en Bemstein, 1982, pág. 68).
Las ideas expuestas por McCulloch y Pitts intrigaron a los inventores de los
nuevos aparatos de computación. Merced a su demostración, se abrían ahora dos
caminos para la máquina de Turing: uno que apuntaba hacia el sistema nervioso,
compuesto de innumerables neuronas que se atuvieran al principio del “todo o
nada” ; y otro que apuntaba hacia una computadora capaz de materializar
cualquier proceso que pudiera ser descripto de manera inequívoca. Turing había
demostrado la posibilidad, en principio, de la existencia de computadoras de gran
poder, en tanto que McCulloch y Pitts probaron que había al menos una máqui
na formidable —el cerebro humano— cuyas operaciones podían concebirse ,por
semejanza con los principios de la lógica, y que por ende era una poderosa compu
tadora.
Tal vez McCulloch llevó demasiado lejos su argumentación. Estaba persuadido
2. Los cimientos de la ciencia cognitiva | 35
La síntesis cibernética
antaño habían sido colegas suyos), en particular por las sugestivas analogías entre
un sistema de conexiones lógicas y el sistema nervioso humano.
Wiener tenía una fe casi religiosa en que estos diversos avances científicos y
tecnológicos eran congruentes entre sí; en este aspecto, fue mucho más allá que
todos sus contemporáneos. Para él constituían una nueva ciencia, fundada en los
temas del control y de la comunicación, ciencia que a su entender era la
fundamental a mediados del siglo XX. Formuló por primera vez públicamente sus
puntos de vista en un artículo de 1943, “Conducta, propósito y teleología”
(Rosenblueth, Wiener y Bigelow, 1943); él y los otros coautores expusieron allí
la idea de que los problemas de la ingeniería de control y de la ingeniería de las
comunicaciones son inseparables; además, de que su eje no son las técnicas de la
ingeniería eléctrica, sino algo mucho más trascendental: el mensaje, “ya sea
transmitido por medios eléctricos, mecánicos o nerviosos”. Los autores incorpora
ron una noción que entonces fue revolucionaria: si una máquina posee retroali-
mentación, es legítimo decir que “persigue metas” , y si es capaz de calcular la
diferencia entre esas metas y su desempeño efectivo, puede luego reducir tales
diferencias. Así pues, para ellos las máquinas estaban “dotadas de propósitos” .
Además, desarrollaron una novedosa idea acerca del sistema nervioso central,
expuesta por Wiener en estos términos:
Es notable por, cierto el paralelismo entre esto y las ideas de Lashley acerca
de la organización neural, como también su desafío a la reflexología conduc-
tista.
No pasó mucho tiempo sin que Wiener elaborara una síntesis de estas diver
sas ideas interconectadas, y la expusiera en un libro que hizo historia: Cyber-
netics [Gbemética] (publicado en 1948, el mismo año en que se celebró el Simpo
sio de Hixson). Ahí presentaba su ciencia en estos términos: “Hemos resuelto
denominar ‘cibernética’ a todo el campo de la teoría del control y la comunica
ción, ya se trate de la máquina o del animal” (1961, pág. 11). En las páginas
siguientes estableció una concepción integral, en la que reunía los avances en la
comprensión del sistema'nervioso humano, la computadora electrónica y el fun-
2. Los cimientos de la ciencia cognitiva 1 37
Teoría de la información
Síndromes neuropsicológicos
los fundadores de la ciencia cognitiva, pero que a la sazón sólo era un estudiante
avanzado de la Universidad de Chicago) recuerda que en esa década existía una
especie de “universidad invisible” (Simón, 1982). Simón conoció a McCulloch en
Chicago; leyó la tesis de maestría de Shannoh' en el ITM; supo que Wiener y
von Neumann trabajaban en problemas vinculados a la lógica simbólica, derivados
de los escritos filosóficos de Whitehead, Russell y Frege. El propio Simón estudió
en Chicago con Rudolf Camap, quien entonces proponía nociones claves acerca
de la sintaxis de la lógica. Biólogos de primera línea como Ralph Gerard, Hein-
rich Klüver, Roger Sperry, Paul Weiss (asistentes muchos de ellos al Simposio de
Hixson) trabajaban en laboratorios próximos entre sí, sobre cuestiones vinculadas
al sistema nervioso. Y muchas de estas mismas influencias rozaron en este período
a Jerome Bruner, Noam Chomsky, John McCarthyj’Geórge Miller, Alien Newell
y otros fundadores de la ciencia cognitiva.
Pero todo esto no fue sino una preparación de la escena. Las ideas fundamen
tales de la ciencia cognitiva estaban inmanentes en los primeros trabajos de
McCulloch, Turing, von Neumann, Wiener y Pitts, y se las debatía acaloradamente
en las mencionadas reuniones de la Fundación Macy, en el Club Ratio, en la Socie
dad de Amigos de Harvard y en varias otras instituciones y ámbitos. Se escribían
y discutían monografías y libros importantes. No obstante, en cierto sentido toda
esta actividad se desarrollaba fuera de los campos de estudio establecidos; era
extracurricular y considerada un poco extraña por quienes pertenecían a la
corriente principal del saber vigente, integrado por la psicología conductista, la
lingüística estructural, la antropología social funcionalista y la neuropsicología
del aprendizaje animal. No pasaría mucho tiempo sin que algunos sucesos espec
taculares comenzaran a conmover los cimientos mismos de estas disciplinas.
I
L
i.
I
3 Las primeras décadas de la ciencia cognitiva
Por razones que en la actualidad nos resultan aún oscuras, las variadas
tensiones y falencias de la primera mitad del siglo XX contribuyeron a gene
rar un nuevo movimiento en psicología, que adoptó primero el título de
procesamiento de la información y luego dio en llamarse la moderna psicolo
gía cognitiva. Y todo esto sucedió en el lustro que va de 1955 a 1960. En
esos cinco años se inició la ciencia cognitiva, acontecimiento que sólo ahora
comienza a ser evidente para todos los que la-practican (1981, pág: 9).
Por último, al historiar este período, los científicos Alien Newell y Herbert
Simón, especialistas en computadoras, declaran:
' Esta notable confluencia pone el acento en unas pocas publicaciones germina
les, emanadas (lo cual tal vez no sea sorprendente)'del mismo reducido grupo de
investigadores. Sin embargo, de hecho la lista de publicaciones pertinentes es casi
interminable. En lo que concierne a las vinculadas en líneas generales con la cien
cia cognitiva, la debe encabezar sin duda la obra postuma de John von Neumann,
The Computer and the Brtún [La computadora y el cerebro] (1958). Esta obra
reunía un conjunto de conferencias que se le había encargado a von Neumann
pronunciar, sin que pudiera hacerlo a raíz de su enfermedad. El pionero de la cien-
..cia ,^e la computadora desarrolló en ella muchos de los temas originalmente trata-
46 | La nueva ciencia de la mente
En la década de 1960, las ideas del Centro, así como las de otros institutos
de investigación, fueron difundidas a través de libros y otras publicaciones. A
comienzos de esa década, George Miller —junto con sus colegas Karl Pribram, neu-
rocientífíco, y Eugene Galanter, psicólogo de orientación matemática— dieron a
conocer una obra que tuvo una enorme repercusión en la psicología y las discipli
nas afines: un pequeño volumen titulado Plans and the Structure o f Behavior
[Los planes y la estructura de la conducta] (1960). En él anunciaron el fin del
conductismo corriente, con su desacreditado arco reflejo, y en su lugar reclama
ron un enfoque cibernético de la conducta en términos de acciones, iteraciones o
bucles [loops/ de retroalimentación, y reajustes de la acción a la luz de la retroali-
mentación. Para reemplazar al arco reflejo los autores proponían una unidad de
actividad denominada en inglés TOTE, sigla de Test-Operate-Test-Exit [Evahta-
ción-Operación-Evahiañón-Salida]\ una importante propiedad de la unidad TOTE
era que podía insertársela dentro de una estructura jerárquica perteneciente a otra
unidad TOTE más amplia. Como medio para conceptualizar estas unidades TOTE,
los autores seleccionaron la computadora con sus programas. Si una computadora
era capaz de tener un objetivo (o conjunto de objetivos), un medio para alcanzar
ese objetivo, un medio para verificar que el objetivo había sido alcanzado, y luego
la opción de avanzar hacia un nuevo objetivo o de interfumpir el comportamien
to, los modelos que pretendían dar cuenta de los seres humanos no debían ser
menos. La computadora tomaba teóricamente legítimo describir a los seres huma
nos en función de planes (procesos jerárquicamente organizados), imágenes (todo
el conocimiento disponible acerca del mundo),-objetivos y otras concepciones
mentalistas; y al brindar a dichas concepciones-su-resonante aval, estos tres desta
cados científicos justificaban en la práctica que se abandonase el limitado ámbito
del estímulo y la respuesta en favor de modelos más abiertos y flexibles, interac-
tivos e intencionales.
ranura de la memoria inmediata ya había sido excedida con creces; sería imposi
ble enumerar todas las monografías, artículos y personalidades importantes en
el campo de las ciencias cognitivas sin subdividirlo. (En verdad, aunque .mi lista
parezca fatigosamente larga, he rozado apenas la superficie de la ciencia cognitiva
tal como se presentaba alrededor de 1970.) Se desplegaba enorme actividad en
diversos ámbitos y prevalecía un claro sentimiento de estar avanzando. Asi lo
expresó un entusiasta participante en un congreso:
Tal vez estemos en los inicios de una aventura intelectual de gran enver
gadura, situación comparable a la de la física a fines dél Renacimiento,
cuando había enorme cantidad de descubrimientos por hacer y empezaba
a tenerse una vaga idea sobre la manera de hacerlos. En el caso del temprano
desarrollo de la física moderna, sucedió que el avance de la ciencia exigió
aplicar nuevos y más sutiles procedimientos intelectuales: una nueva
matemática, una nueva ontología, una nueva visión del método científico.
Mi impresión es que una evolución de la misma especie se requiere en nues
tro caso (y, dicho sea de paso, en una escala temporal semejante). Es proba
ble que ahora, como entonces, debamos librar una penosa batalla contra
hábitos intelectuales e institucionales que se han vuelto obsoletos (Sloan
Foundation, 1976, pág. 10).
verse Within [El universo interior), por Morton Hunt (1982), y mi propio ensayo
histórico, que contó asimismo con el apoyp de la Fundación Sloan.
El solo hecho de declarar el nacimiento de un campo de estudios tiene un
efecto vigorizante en todos aquellos que así descubren que ya se hallaban dentro
de sus fronteras, sea en una posición central o periférica; pero en modo alguno
asegura que se logre consenso, y mucho menos un progreso científico apreciable.
Los mecenas son casi siempre necesarios, pero no bastan por sí solos para fundar
una disciplina o para establecer coincidencias en ella. En verdad, en cada una de
las fases de la iniciativa de la Fundación Sloan surgieron tensiones acerca de lo que
era este campo de estudio, quién lo comprendía correctamente, cuáles eran los
peligros que lo amenazaban y en qué rumbo debía encaminarse (y estas tensiones
persisten todavía hoy).
Filosofía
ción en la disciplina”, fue redactado por una docena de sus principales estudio
sos, con quienes colaboraron otra docena de asesores. Ajuicio de los autores, “lo
que ha originado el nacimiento de esta disciplina ha sido un común objetivo de
investigación: descubrir las capacidades de la mente para la representación y la
computación, y su representación estructural y funciona) en el cerebro” (1978,
pág. 6). Los autores bosquejaron las intenelaciohes entre los cinco campos de
estudio de la disciplina, diagramando lo que se denominó “el hexágono cogniti-
vo” . Mediante el uso de líneas continuas y quebradas se procuró indicar en él las
conexiones ya existentes entre algunos campos, y sugerir aquellas otras que toda
vía no se habían establecido, pero podrían alcanzarse en el futuro.
Los autores de este “Informe sobre el cuadro de situación en la disciplina”
realizaron, a mi juicio, un empeño serio por pasar revista a las principales líneas de
investigación y ofrecer un esquema general de los trabajos desarrollados, expo
niendo las premisas básicas de esta ciencia. A continuación, partiendo del ejemplo
de la foima en que los miembros de distintas culturas designan los colores, ilus
traron de qué manera combinan diversas disciplinas sus respectivas intelecciones
(daré mayor contenido a este ejemplo de la designación de los colores en el capí
tulo 12). No obstante, la comunidad científica en general adoptó frente al informe
una postura netamente adversa. En verdad, fueron tantos los que expresaron una
virulenta oposición a él que, contrariando los propósitos originales, el documento
no se publicó nunca. Me parece que esta reacción negativa se debió a que cada
lector abordó el documento desde la perspectiva de su propia disciplina y de su
particular programa de investigación. En su afán de ser razonablemente ecuméni
cos, los autores sólo consiguieron que la mayoría sintiera que su propia obra era
subestimada. Además, hasta la fecha no existe un paradigma de investigación sobre
el cual haya coincidencias (ningún conjunto de premisas o de métodos goza de
consenso), y por ende los científicos cognitivistas tienden a proyectar cada cual su
propio paradigma predilecto en el campo total. Teniendo en cuenta todos estos
factores, puede afirmarse que en 1978 probablemente era imposible redactar un
documento que se granjeara la simpatía de todos los científicos cognitivistas.
Desde luego, sería muy afortunado que, de alguna manera misteriosa, surgiera
ese consenso, ya sea merced a la generosidad de la Fundación Sloan o a la apari
ción de algún moderno Newton o Darwin que pusiera orden en el campo de la
ciencia cognitiva. Sin embargo, a falta de algún milagroso suceso de esta especie,
sólo resta que cada uno de los que quieren comprender esta ciencia haga su propia
formulación provisional respecto de ella. En el capítulo inicial de este libro expuse
una definición operativa de la ciencia cognitiva y aludí a cinco de sus componen
tes esenciales. Ahora, una vez esbozadas algunas de las fuerzas intelectuales que
contribuyeron a su surgimiento hace tres décadas, quiero repasar estos temas con
algo más de detalle, a fin de considerar sus consecuencias y sus aspectos proble
máticos. Concluiré luego esta parte introductoria del volumen describiendo la
3. Las primeras décadas de la ciencia cognitiva | 55
Representaciones
Las computadoras
por el grado en que está ligada a las computadoras. Estas ocupan un lugar central
en la esfera de la inteligencia artificial, y sólo unos pocos descontentadizos cuestio
nan su utilidad como modelo de la cognición humana. En lingüística y psicología
se han manifestado ciertas reservas acerca del enfoque de la computadora, pero la
mayor parte de los adeptos a estas disciplinas no se molestan en trabarse en reyer
tas con los partidarios de las computadoras.
No obstante, si pasamos al resto de las ciencias cognitivas, la relación con la
computadora se vuelve cada vez más problemática. Muchos antropólogos y neuro-
científicos, independientemente de que utilicen o no computadoras en sus inves
tigaciones, no están nada convencidos de que sirvan como un modelo viable de los
aspectos de la cognición que más les interesan. A juicio de muchos neurocientí-
ficos, el cerebro suministrará las respuestas, por sí mismo, sin necesidad de que
intervenga un modelo de computadora; y numerosos antropólogos piensan que la
clave del pensamiento humano radica en fuerzas históricas y culturales que se
hallan fuera de la cabeza del hombre, y que son difíciles de conceptualizar en tér
minos de la computadora. En cuanto a los filósofos, su actitud hacia la computa
dora va desde el entusiasmo más frenético al escepticismo virulento, lo cual los
convierte en un conjunto de informantes de particular interés para cualquier
examen de la ciencia cognitiva.
Tal vez a la larga surja una ciencia cognitiva unificada, pero todos coinciden
en que ese momento está lejano todavía. Investigadores provenientes de una disci
plina determinada tienen esperanzas en los resultados de la interacción productiv?
con sus colegas de otras disciplinas; siguiendo la tradición de los asistentes a los
Simposios de Hixson y de Macy, confían en que mediante su labor conjunta
podrán alcanzar intelecciones más potentes que las que les brindaría la perspectiva
de una disciplina única. Citan como ejemplo los trabajos actuales sobre percepción
visual y procesamiento lingüístico, que han aprovechado, de manera completa
mente natural, datos provenientes de la psicología, la neurociencia y la inteligen
cia artificial, a punto tal que las fronteras entre las disciplinas han empezado a
desdibujarse.
Los escépticos sostienen que es imposible hacer progresos mezclando discipli
ñas, y que sería más acertado poner primero en orden la propia casa en cada jiña
de éstas. Como tampoco está del todo claro cuáles de las disciplinas pertinentes
contribuirán en última instancia a la formación de la ciencia cognitiva, y de qm
manera, dicen que puede perderse un tiempo precioso en colaboraciones impro
cedentes. Desde su perspectiva, es perfectamente lógico que haya ciencias cogni-
tivas individuales, pero no es sensato establecer una única disciplina sin soluciór
de continuidad. En el mejor de los casos, debería haber cooperación entre lar
diversas disciplinas, y nunca una fusión total.
más exclusivos del hombre, puedan abordarse adecuadamente mediante este parti
cular modelo computacional.
Esto nos conduce a lo que he denominado la paradoja computacional. Iróni
camente, la aplicación rigurosa de los métodos y modelos extraídos del ámbito
computacional ha llevado a los científicos a comprenderen qué aspectos los seres
humanos no se asemejan a estas computadoras prototípicas. Esto no significa que
no haya procesos cognitivos semejantes a los de la computadora; en verdad, algu
nos de ellos se parecen mucho. Tampoco significa que sea imposible establecer con
la computadora un modelo de los procesos cognitivos (después de todo, puede
establecerse un modelo de esa índole para cualquier cosa que sea claramente expli-
citable). Más bien significa que la concepción sistemática, lógica y racional sobre la
cognición humana, de la que está impregnada la primitiva bibliografía de la cien
cia cognitiva, no describe en forma apropiada gran parte del pensamiento y la
conducta de los hombres. La ciencia cognitiva puede seguir adelante, pero surge
el interrogante de si debemos buscar modelos más verídicos del pensamiento
humano.
Así pues, la ciencia cognitiva ha engendrado una paradoja; pero también se
encuentra ante un desafío. Parece claro, a partir de mis indagaciones, que la
corriente principal de la ciencia cognitiva abarca cómodamente la psicología cogni
tiva, la inteligencia artificial y grandes sectores de la filosofía y la lingüística; pero
parece igualmente claro que otras disciplinas le imponen límites que no puede
sobrepasar. Gran parte de la neurociencia opera en un nivel en que no tienen
cabida las cuestiones vinculadas con la representación y con el uso de la computa
dora como modelo. En el extremo opuesto del espectro, gjan parte de la antropo
logía se ha desprendido de los métodos provenientes de la ciencia cognitiva, y
existe una difundida (y quizá creciente) convicción de que su problemática central
puede manejarse mejor con una perspectiva histórica o cultural, o incluso lite
raria.
Y éste es el desafío que se le presenta a la ciencia cognitiva: es fundamental
que establezca su autonomía y que demuestre en qué terreno son válidos los enfo
ques computacional y representacional. A mi entender, ya ha logrado éxito en
esto, aunque el alcance de su empresa tal vez no sea tan vasto como se pretendió.
Sin embargo, si los científicos cognitivistas quieren dar cuenta cabalmente de
los rasgos más cardinales de la cognición, ellos (u otros científicos) tendrán que
descubrir o construir los puentes que conecten a su disciplina con las vecinas:
específicamente, con la neurociencia en el extremo inferior, por así decir, y con
las ciencias culturales en el extremo superior. Todavía no resulta claro cómo se
hará esto ni si es posible hacerlo; pero a menos que los aspectos cognitivos del
lenguaje, la percepción o la resolución de problemas puedan articularse con los
aspectos neurocientíficos y antropológicos, estaremos ante una disciplina
incompleta y dispersa. Dicho de otro modo, nadie pone en tela de juicio la
autonomía de la biología, la química y la física; pero si no fuera posible tejer una
62 | La nueva ciencia de la mente
-J,
4 La razón, la experiencia y el status de la filosofía
¿Cuál será la textura de los nervios y músculos del cuerpo para que los
espíritus animales en él contenidos tengan el poder de mover los miembros
(• - •)? ¿Qué cambios deben sobrevenir en el cerebro que den lugar a la vigi
lia, el dormir y el soñar? ¿Cómo puede ocurrir que la luz, los sonidos,
olores, sabores y todas las demás cualidades que pertenecen a los objetos
exteriores sean capaces de imprimir en él ideas diversas, por mediación de
1.1 los sentidos? (citado en Wilson, 1969, pág. 137).
Ninguna de las ideas que tenemos de las cosas, en la forma en que nos las
figuramos mediante el pensamiento, nos son presentadas por los sentidos.
Hasta tal punto es así, que nada hay en nuestras ideas que no forme parte
innata de la mente, o de la facultad de pensamiento, salvo esas circunstan
cias que apuntan a la experiencia. ( . . . ) Estas transmitieron algo que dio a
la mente la oportunidad de formar tales ideas, mediante una facultad innata,
en este momento preciso y no en otro. (Citado en Chomsky, 1966, pág.
67.)
tar los resultados e indicar nuevas líneas de indagación. Las cuestiones planteadas
por Descartes y sus contemporaneos.se convirtieron, unos siglos más tarde, en el
objeto de estudio de los psicólogos, lingüistas y neurocientíficos; y por cierto las
reflexiones cartesianas sobre el ser humano como posible autómata son hoy
centrales en toda la esfera de la inteligencia artificial. A la luz de los resultados
empíricos, por su parte, los filósofos han reconceptualizado, a veces en forma fun
damental, las cuestiones que indagaban, y estas reconceptualizaciones han sosteni
do y dirigido a su vez diversos trabajos empíricos, y han contribuido a su inter
pretación. Los filósofos no son los árbitros supremos, ni tampoco las víctimas
supremas, de la labor científica; han sido más bien (y continuarán siendo) impor
tantes auxiliares en el estudio científico de la cognición.
Afines del siglo XVIII el profesor alemán Immanuel Kant se enfrentó con dos
alternativas antagónicas: una, que contaba con el favor de los empiristas británi-
4. La razón, la experiencia y el status de la filosofía | 73
sofía, sino más bien proposiciones no filosóficas acerca del mundo (Kenny, 1973).
Al mismo tiempo que esclarece las proposiciones de la ciencia natural, la filosofía
puede exponer también el sinsentido de las cuestiones metafísicas acerca de la
existencia.
Es bien sabido que el propio Wittgenstein llegó a dudar primero, y luego a
renunciar virtualmente por entero, a su teoría “pictórica” o figurativa del lenguaje
y el mundo (Wittgenstein, 1968); no obstante, su proyecto de analizar lógicamen
te el lenguaje y tratar de relacionar este análisis con el mundo percibido se convir
tió en un ingrediente esencial del programa filosófico adoptado por el “ Círculo
de Viena” de los empiristas lógicos en el período entre las dos guerras mundiales.
Estudiosos como Herbert Feigl, Otto Neurath, Morris Schlick y particularmente
Rudolf Camap trataron sinceramente de unir “el lenguaje, la verdad y la lógica” ,
como manifestó A. J. Ayer (1936). El Círculo de Viena se fijó como objetivo gene
ral ver qué cuestiones filosóficas tradicionales podían reformularse en términos
formales, y cuáles otras no podían reformularse así. Estas últimas (por ejemplo,
las vinculadas con los “ángeles celestiales”) fueron rotuladas de metafísicas y
. proscriptas, a partir de entonces, de todo debate. Aquellas que sí se prestaban al
tratamiento en términos lógicos (por ejemplo, las referidas a los ángulos geomé
tricos) debían reexaminarse para comprobar si era„ posible verificarlas, y por lo
tanto sumarlas a nuestro acopio de lo verdadero___-—--i. ....
-i Un elemento principalísimo del programa que se trazaron los empiristas lógi
cos era el verificacionismo, doctrina según la cualJos enunciados empíricos (no
lógicos) pueden verificarse en condiciones de indagación ideales; todo lo que se
.. - necesita es un procedimiento para medir y verificar-aquello de lo cual se está
"hablando. En los términos en que se expresó Cámap,’ "es preciso observar las
circunstancias en que las personas utilizan una proposición determinada para esta
blecer la verdad de ésta. Más aun, el significado de una proposición es su método
de verificación. Otra doctrina del Círculo de Viena era el fisicalismo. Creían que
las propuestas que de ordinario se interpretan como referidas a estados mentales
son lógicamente equivalentes a las referidas a la conducta manifiesta. Llegaron a
-afirmar que cualquier enunciación de la psicología podía reformularse como una
descripción del comportamiento físico de los seres humanos o de los animales.
'"Por último, el Círculo de Viena rechazó la idea de que la filosofía es un área de
estudio especial o fundacional; para estos filósofos no existía más que una ciencia
empírica, de la cual la filosofía formaba parte (Ayer, 1982, pág. 128), y cuyo
. ■<-'papel consistía en describir y criticar el lenguaje de la ciencia. -
•f? Equipado con estas ideas, Rudolf Camap se resolvió a poner en práctica las
‘ convicciones de los empiristas lógicos. Russell había hablado de definir el mundo
a partir de la experiencia, a través de la construcción lógica. Camap procuró tradu
cir al lenguaje de los datos sensoriales todas las sentencias sobre el mundo. A cada
r sentencia acerca de objetos materiales debía corresponderle.otra acerca de los.
80 | La nueva ciencia de la mente
Así pues, del mismo modo que Russéll y Camap, Goodman piensa que las
■técnicas provenientes del análisis lógico nos permiten resolver muchos de los
problemas filosóficos vigentes (aunque no todos), y que el mejor medio para tener
éxito en esto es atacarlos de a uno por vez.
Hay otro motivo aún por el cual la saga del empirismo lógico resultó tan signi
ficativa para la liistoria de la ciencia cognitiva. Inspirados por la tradición de
Whitehead y Russell, Camap y sus colegas procuraron expresar los hallazgos cien
tíficos cotidianos en términos de los elementos básicos de la lógica. Hablando en
general, podemos decir que pretendieron pesquisar la estructura lógica de la cien
cia, y, más particularmente, la del lenguaje en ella utilizado —o sea, estudiar la
sintaxis de la ciencia—. Tal como yo lo veo, hay un elemento principal en los
trabajos actuales en las ciencias cognitivas moldeado a imagen y semejanza del
empirismo lógico: me refiero a la concepción de una sintaxis —conjunto de símbo
los y reglas sobre su concatenación— como sustrato de las operaciones mentales,
y la consecuente incomodidad que provocan todas las cuestiones vinculadas con
el contenido psíquico. Así, cuando Noam Chomsky (1965) postula las operacio
nes básicas de una gramática, o Richard Montague (Thomason, 1974) examina la
4. La razón, la experiencia y el status de la filosofía | 81
Ni una sola de las grandes tesis positivas del empirismo lógico (que el
significado es el método de verificación; que las proposiciones metafísicas
carecen literalmente de sentido; que la matemática es verdadera por con
vención) ha resultado correcta. El entusiasmo que provoca el hecho de que,
al convertir las tesis filosóficas en tesis lingüísticas [como había intentado
hacer Camap] ( . .. ) uno puede volver más científica la filosofía, y establecer
el valor de verdad de las proposiciones filosóficas mediante rigurosas inves
tigaciones científicas, ese entusiasmo, digo, desaparece si los resultados que
se obtienen son uniformemente negativos (1975a, pág. 20).
Pero el propio Putnam suavizó su veredicto de una manera que resulta revela
dora para nuestra historia, al declarar: “Aun cuando [el empirismo lógico] fraca
só, la moderna lógica simbólica, gran parte de la moderna teoría lingüística y parte
de la ciencia cognitiva contemporánea fueron el resultado de sus tentativas”
(1984, pág. 274).
Críticos como Quine y Putnam lamentaron el colapso del empirismo lógico,
y si mostraron simpatía hacia la ciencia cognitiva, tal vez fue porque percibieron
que este movimiento compartía siquiera algunos de los métodos y aspiraciones de
esos trabajos filosóficos previos. Sin embargo, a fines de la década de 1940 se
elevaron otras voces mucho más estridentes contra la tradición iniciada por
Descartes y que, después de muchas vueltas y vericuetos, aún era discernióle en el
campo del empirismo lógico. Los tres nombres asociados más intensamente a
estas criticas son los de Gilbert Ryle, Ludwig Wittgenstein (en los escritos de su
última época) y J.L. Austin.
G ilbert Ryle
En su libro The Concept o f Mind (1949), que goza de merecida fama, Ryle
se enfrentó en forma manifiesta con la “doctrina oficial” del mentalismo iniciada
con Descartes. Tal como Ryle describía esta doctrina, ella entrañaba la creencia de
4. La razón, la experiencia y el status de la filosofía | 83
que todo individuo tiene una mente y un cuerpo; de que las mentes no están en el
espacio ni sus operaciones están sujetas a las leyes de la mecánica; de que el
.funcionamiento de la mente es privado y accesible sólo a la persona misma; y de
que hay, de hecho, dos clases distintas de existencia o de condición: todo lo que
sucede puede tener una existencia física o bien una existencia mental. “Los suce
sos mentales ocurren en campos aislados conocidos como ‘mentes’, ( . . . ) y no hay
ninguna conexión causal entre lo que acontece en una mente y lo que acontece
en otra” (1949, pág. 13). A esta doctrina, junto con las numerosas premisas y
aspectos lingüísticos que le están asociados, Ryle la tituló “ el dogma del fantasma
en la máquina” , sosteniendo: “Tengo la esperanza de probar que esta doctrina es
totalmente falsa, no sólo en sus detalles sino en sus principios” (pág. 16). Y dedi
có las 330 páginas de su libro a justificar esa esperanza.
La afirmación básica de Ryle es que toda referencia a la mente implica un
error de categoría. Es perfectamente aceptable hablar de “mente” , pero no tene
mos que caer en la trampa de suponer que existe un lugar denominado “la
mente”, con sus propios recintos, sucesos, etc., así como tampoco podemos supo
ner que hay un lugar denominado “la universidad” aparte y por separado de los
edificios, veredas, parques, personas y otras entidades materialmente especifica-
bles que la componen. Decir que la mente tiene una existencia separada es, según
Ryle, tratar erróneamente una entidad de una especie, o sea, una caracterización
abstracta de una serie de disposiciones, como si en sí misma fuera una de estas
disposiciones. “Los errores de categoría interesantes desde el punto de vista teóri
co —puntualizó Ryle— son aquellos cometidos por personas perfectamente idó
neas para aplicar conceptos, al menos en las situaciones que les son familiares,
pero que en su pensar abstracto son proclives a enmarcar esos conceptos en tipos
lógicos que no les corresponden” (1949, pág. 17). Y la mente se ha convertido en
uno de esos errores teóricamente interesantes, porque Descartes la postuló como
una sustancia paralela al cuerpo pero separada de éste, que controla nuestra
vida psíquica y es el escenario en que ésta se desarrolla.
Una vez que Ryle expuso las fallas de la posición cartesiana, procedió a esta
blecer. de qué manera es posible hablar de las entidades y experiencias que solemos
denominar “mentales” , en forma tal que no se cometan errores de categoría ni se
viole el real estado de cosas. En general, adoptó una postura conductista: cuando
decimos que una persona tiene “rasgos” o capacidades volitivas intemas, sostuvo,
no hacemos sino indicar que está predispuesta a conducirse de cierta manera y es
probable que lo haga así en presencia de circunstancias apropiadas que provoquen
dicha conducta. Ryle cuestionó que existan efectivamente en la mente ciertos
acontecimientos a los que cada persona tiene un acceso privilegiado; insistió en
que lo que podemos saber sobre nosotros mismos no difiere, en principio, de lo
que podemos averiguar de los demás a partir de la observación y el interrogatorio.
Aludir a la “mente” de una persona no es sino referirse a ciertas formas en que se
ordenan los sucesos de su vida.
84 | La nueva ciencia de la mente
Ludwig Wittgenstein
otros individuos en las cuales nos abrimos paso a través de un conjunto de oposi
ciones lingüísticas—; y, al igual que en una serie de juegos reglados, cada uno de
estos pequeños enfrentamientos está regido por su propio conjunto de reglas.
No obstante, desentrañar estas reglas no es sencillo, porque se superponen unas
con otras: los juegos del lenguaje se confunden constantemente. Y a este embrollo
se suma que las palabras no tienen siempre un significado claro e inequívoco. La
propia palabra “juego" tiene una amplia gama de significados, y no hay ninguna
definición que baste para dar cuenta de todos los juegos, y sólo de ellos. Dado que
en un momento cualquiera tienen lugar numerosos juegos de lenguaje que se
superponen entre sí, no es extraño que Wittgenstein desesperara de resolver
alguna vez los problemas filosóficos en forma rigurosa, como antaño habían
confiado hacerlo él y sus colegas del Círculo de Viena. Cobraba más sentido tratar
de desmenuzar los problemas mostrando que habían sido formulados de manera
equívoca.
La actitud de Wittgenstein hacia los problemas tradicionales puede recogerse
en sus comentarios sobre la psicología, en particular sobre la variedad con la que
se encontró en sus primeros estudios en Viena. Según él, los psicólogos procuraban
resolver problemas que no comprendían; estos problemas no eran auténticamente
científicos, sino que estaban insertos en determinados usos del lenguaje. Wittgens
tein ilustró esto con la manera complicada y superpuesta en que se usan muchos
términos mentalistas, como “creer” , “imaginar", “ desear”. Sostenía que en vez
de tratar de explicar de qué manera “funciona” en la práctica cada una de estas
presuntas operaciones mentales, para los psicólogos tendría más sentido (al estilo
de Ryle) estudiar las relaciones entre esas diversas maneras de referirse a la
conducta y la experiencia. En tono pesimista, Wittgenstein sostuvo:
J.L. Austin
; "'"-Así por ejemplo la preferencia “Aquí todo está que arde” , puede ser un
enunciado sobre la temperatura que hay en una habitación, un pedido de que se
abra una ventana o bien un comentario acerca de un agitado debate. Una vez
establecido que cualquier enunciado puede tener muy distintos efectos según
quien lo profiera, en qué contexto y por qué razón, debe abandonarse la idea de
una evaluación neutral de las oraciones. Isaiah Berlín recordaba de este modo el
momento en que Austin expuso sus ideas en Oxford a comienzos de la década de
1950:
Freddy [A.J.] Ayer estaba allí, y seguía todavía muy apegado al Círculo
de Viena. Cuando promediaba la noche, ya todos sabíamos que Camap y
el Círculo de Viena estaban terminados. Austin estableció el distingo entre
las proposiciones analíticas y las sintéticas como un caso de su clasificación
más general de las proposiciones por su fuerza ilocutiva*. Nos dejó atolon
drados. (Citado enBruner, 1982,pág. 41.)
Al instar a que el foco se desplazara hacia los usos corrientes del lenguaje,
Austin, Ryle y Wittgenstein lanzaron su voz de alerta contra la idea de “la filoso
fía como superdisciplina” , capaz de legislar en temas como los del conocimiento,
la verdad y la ciencia. Quizá pudieran abordarse algunas de estas cuestiones a la
manera de la ciencia empírica, pero por cierto los filósofos no contaban con
ningún medio privilegiado para acometerlas o resolverlas. Si la filosofía tenía en
verdad alguna misión especial (y estos analistas eran escépticos al respecto), ella
consistía en llamar la atención acerca de los hábitos del lenguaje que suelen
dominar el pensamiento humano, y contribuir a desentrañar algunas de las modali
dades oscuras del discurso (entre ellas las que exhiben ciertos científid$s).
¿Había algo rescatable en el programa de la filosofía tradicional? W.V.O.
Quine, uno de los magistrales arquitectos de esta crítica inicial, así lo cree. Al par
que señala el fracaso del sueño déla epistemología como una especie de “filosofía
primera” , insiste en que pese a todo le queda un papel legítimo que cumplir:
Creo que en este momento será más provechoso afirmar, más bien, que
la epistemología sigue en pie, aunque en un nuevo contexto y con una posi
ción más clara. La epistemología, o algo semejante a ella, simplemente ha
pasado a ser un capítulo de la psicología, y por ende de la ciencia natural.
Estudia un fenómeno natural: el sujeto físico humano. A este sujeto
humano se le asigna un cierto ‘insumo’ [input] experimental controlado
-p o r ejemplo, ciertas pautas de irradiación en frecuencias diversas—, y al
llegar el momento de la plenitud el sujeto entrega como producto [output]
una descripción de este mundo extemo tridimensional y de su historia. Si
nos hemos visto llevados a estudiar la relación entre el magro insumo y el
producto torrencial, ha sido más o menos por las mismas razones que siem
pre instaron a la epistemología, a saber: para averiguar cómo se vincula la
- prueba con la teoría y- de qué modo la propia teoría de la naturaleza que
sostiene e l,investigador trasciende cualquier prueba disponible. (Citado en
Royce y Rozeboom, 1972, pág. 18.)
marinero que debe reconstruir su bote, tabla a tabla, al mismo tiempo que perma Quisiera señalar que el concepto de mente es el punto oscuro que llegó
nece a flote sobre él. De acuerdo con este símil, podría decirse que los científi a obsesionar, a los intelectuales .de Occidente cuando al fin renunciaron a
cos cognitivistas están reconstruyendo las estructuras tradicionales de las indaga ese otro punto oscuro, el concepto teológico de Dios. El carácter inefable
de lo mental cumple la misma función cultural que el carácter inefable de
ciones epistemológicas. lo Divino: sugiere vagamente que la ciencia no tiene la última palabra
(Rorty, 1982b, pág. 31).
Richard Rorty: ¿Es necesaria la epistemología? A juicio de Rorty, esta serie de creencias son la culminación de una larga
historia de pensamiento desencaminado acerca de ciertas clases de actividad
Richard Rorty, luego de trazar un panorama semejante al de Quine, llega a humana. Es correcto afirmar que tales actividades estuvieron desencaminadas,
una conclusión mucho menos optimista. En su obra Philosophy and the Mirror como hizo Ryle; pero la única forma de exorcizar este “fantasma” para siempre es
o f Natttre [La filosofía y el espejo de la naturaleza) (1979), que fue motivo de repasar toda su historia, más o menos como un terapeuta ayuda al paciente a revi
muchos debates, Rorty pone en tela de juicio toda la empresa epistemológica, y vir la historia de sus procederes y desaciertos del pasado. -Así, Rorty dedicó gran
sugiere una concepción radicalmente distinta de la filosofía, mucho más modesta, parte de sus empeños a la reconstrucción, o “des-construcción” , del pensamiento
menos ambiciosa y esperanzada que la de Quine, y que incluso podría echar por filosófico de Occidente, en el afán de mostrar de qué maneras “la filosofía, tomó
tierra los programas establecidos por Wittgenstein, Ryle y Austin. La notable crí por el camino equivocado” .
tica a que sometió Rorty a toda la filosofía d esde la época griega no sólo tiene La secuencia evolutiva expuesta por Rorty puede resumirse así. En la época
interés de por sí, sino que plantea además profundos interrogantes acerca de lo de los griegos, las creencias se determinaban mediante-una confrontación directa
que llamamos ciencia cognitiva, al menos tal como aquí la hemos caracterizado. con el objeto de la creencia. De este modo, el joven esclavo del Menón descubría
* Según Rorty, para los filósofos su disciplina consistía en abordar cuestiones las verdades geométricas a través del examen de .un -triángulo. El conocimiento
perennes, enigmas que surgen tan pronto alguien se pone a reflexionar; y entre consistía en formarse representaciones precisas-de-formas-ideales que no era
estos manidos interrogantes se encuentran los siguientes: ¿Cómo llega una persona posible observar directamente.
a conocer algo? ¿Y cuáles son las limitaciones del conocimiento? Sumergirse en En la próxima etapa, gracias a Descartes, se llegó .a sostener que nuestro cono
estas cuestiones fundacionales es descubrir algo respecto de la mente humana: cimiento depende de la operación de una facultad cuasi visual —que Rorty titula
“el Espejo de la Naturaleza”—, la cual.consiste en una-reunión de representacio
[La filosofía] indaga las bases del conocimiento, y encuentra estas bases nes precisas. Estas representaciones se encuentran~eñ7a"mente, y un “ojo interno”
en el estudio del hombre en su calidad de conocedor, así como de los las inspecciona confiando en hallar algún signo que testimonie su fidelidad. Aun
“procesos mentales” o de la “actividad de representación” que vuelven posi que los empiristas discrepaban en muchos aspectos con Descartes, mantuvieron
ble cualquier conocimiento. Conocer es representarse en forma precisa lo esta noción mentalista de la mente como una región separada que inspecciona
que está fuera de la mente; así pues, entender la posibilidad y la índole del ideas. Locke introdujo una confusión fatal, al equiparar la explicación del modo
conocimiento es entender la forma en que la mente es capaz de construir
tales representaciones. La preocupación central de la filosofía es constituir en que la información llega a la conciencia —pregunta clásica de la psicología—
una teoría general de la representación. (. ..) La noción de una “teoría con la justificación de la razón por la cual creemos.Jo. que creemos —pregunta
del conocimiento” fundada en una comprensión de los “procesos mentales” clásica de la filosofía—. .. ~
nos viene del siglo XVII, y en especial de Locke. La noción de “la mente” A diferencia de sus antecesores, Immanuel Kant entendió que era imposible
como una entidad separada donde sobrevienen “procesos” deriva del mismo tener acceso directo a las cosas; vale decir, que lo que conocemos son proposicio
período, particularmente de Descartes. La noción de la filosofía como un nes acerca de los objetos, y no los objetos mismos. Pero en su afán de establecer
tribunal de la razón pura, que apoya o rechaza los reclamos del resto de la
cultura, se la debemos al siglo XVIII y en especíala Kant; pero esta noción la sede de las representaciones más precisas, Kant postuló en definitiva un conjun
kantiana presupuso aceptar, en general, las nociones de procesos mentales to privilegiado y especial de representaciones sobre las cuales era imposible dudar.
de Locke y de sustancia mental de Descartes (1979, págs. 3-4). Según la revisión de Rorty, estas representaciones, llegaron a ser consideradas las
bases de todo conocimiento; y así Kant concedió a los filósofos una posición
Este hábito de análisis, esta invocación a ciertas imágenes al reflexionar acerca preeminente para formular enunciados .acerca del mundo y para regular cualquier
’e la mente, es para Rorty tan pernicioso como lo era para Ryle. En verdad, indagación sobre él.
Korty llega aun más lejos: Nos dice Rorty que desde la época de Kant gran parte de lá filosofía procuró
90 | La nueva ciencia de la mente
conservar esta visión de las cosas, pero sufrió severas sacudidas merced a la serie de
acuciantes críticas a que fue sometida la epistemología tradicional. Hubo el ataque
de Wittgenstein a la legitimidad y al carácter central asignado a los problemas
filosóficos clásicos. Hubo el pragmatista John Dewey, quien insistió en que al
conocimiento debía dársele un uso práctico, en vez de ir en pos de la quimera de
un saber objetivo. Hubo el fenomenólogo Martin Heidegger, quien desmenuzó
concienzudamente las imágenes y metáforas que obsesionaron a la filosofía occi
dental desde la época de los griegos. Y tal vez lo más significativo fueron los
fracasos tanto del programa de Russell y Whitehead como del Circulo de Viena
por alcanzar un conocimiento seguro merced a la construcción lógica a partir de
los datos de los sentidos.
La interpretación de Rorty sobre la historia filosófica reciente descansa en
gran medida en las criticas a que ya he aludido. Llega a la siguiente conclusión:
no hay forma de dar cuenta de la validez de nuestras creencias examinando la
relación entre las ideas y los objetos a que están referidas; la justificación de estas
creencias es más bien un proceso social, un extenso diálogo por el cual procuramos
convencer a los demás de lo que creemos. Comprendemos la índole del conoci
miento cuando comprendemos que conocer equivale a justificar nuestras creen
cias, y no a poseer una representación cada vez más exacta de la realidad. Rorty
señala: “Si las afirmaciones son justificadas por la sociedad, y no por el carácter
de la representación interna que ellas expresan, de nada vale tratar de aislar
representaciones privilegiada?' (1979, pág. 174).
Según Rorty, si Quine sigue convencido de que'la epistemología podría
perdurar gracias a los buenos oficios del psicólogo aplicado al estudio del “sujeto
cognoscente” , fue porque no apreció en forma cabal las consecuencias radicales de
-sus propias demostraciones (y las de otros). Pero í n opinión de Rorty, la psicolo
gía no puede en modo alguno tener éxito allí donde falló la epistemología. En un
interesante capítulo, Rorty procura rescatar a la psicología de las afirmaciones
excesivas de pensadores como Quine, quien ve en ella una buena (ya que no ópti
ma) tentativa para responder las cuestiones filosóficas mal concebidas y desactua
lizadas. Asevera Rorty que nada puede objetar a la idea de las ideas per se —a lo
que él denomina “la idea idea” —. Al igual que las construcciones teóricas de los
científicos, las ideas existentes en la mente no son más ni menos respetables que
las neuronas cerebrales. El perjuicio causado por “la idea idea” se debió a la seudo-
explicación dotada de autoridad epistemológica: a la afirmación de que los ojos
de la mente tienen familiaridad directa con entidades especiales como los signifi
cados y los datos de los sentidos (1979, pág. 209).
Rorty increpa a críticos como Wittgenstein y a su discípulo, Norman Malcolm,
por sus juicios harto severos sobre la psicología. No rechaza la afirmación del
psicólogo Peter Dodwell (1971) según la cual los psicólogos son los que están en
mejores condiciones de decidir qué cuestiones han de investigar, y también de
investigarlas en la forma y con los conceptos que tengan más sentido para ellos
4. La razón, la experiencia y el status de la filosofía | 91
cuanto a que estos empeños, al menos tal como se los emprende en la actualidad,
brinden respuestas de valor científico.
Funcionalismo
Uno de los que más han contribuido a este debate ha sido el propio Hilary
Putnam. Filósofo de formación matemática, durante mucho tiempo se interesó
por la naturaleza de las computadoras y sus implicaciones para el pensamiento.
Como él mismo recordó en una oportunidad, la invención de las computadoras fue
un suceso importante en la filosofía de la mente, pues dio origen a la idea de la
organización funcional (1973, pág. 299). Esta idea funcionalista cuestiona la afir
mación de que el pensar y otras “ funciones inteligentes” deben llevarse a cabo
mediante una misma máquina específica, si lo que se quiere es reflejar el mismo
tipo de procesos. Por cierto, antes del advenimiento de las computadoras se podía
sostener que el pensar sólo es propio de los seres humanos, o de entidades con una
estructura cerebral semejante. No obstante, las computadoras demostraron que
muchos de los procesos que antaño llamábamos “pensar” pueden sin duda ser
realizados por mecanismos constituidos por componentes totalmente distintos de
los nervios, la sangre y los tejidos (por ejemplo, transistores o tubos de vacío).
Si existe alguna clase de identidad, es evidente que ella no puede residir en el
soporte material [hardware] sino que, como apuntó Putnam, bien puede estar en
el soporte lógico [software]', vale decir, tanto en los seres humanos como en las
máquinas —y en cualquier otra forma de vida inteligente, desde los osos hormigue
ros hasta los “habitantes de las Antípodas” —podría materializarse la misma clase
de programa. Así pues, la equiparación se produce en un nivel de abstracción
mucho más alto, un nivel que tiene que ver con los objetivos de la actividad cogni-
tiva, los medios de procesamiento de que se dispone, los pasos que deben seguirse,
la evaluación de cada uno de estos pasos, y otros rasgos similares.
En verdad, el funcionalismo se propuso abordar uno de los más clásicos dile
mas filosóficos: el problema de la relación entre la mente y el cuerpo. El pensa
miento puede sin duda acontecer dentro de un aparato físico y estar correlaciona
do con cierta conducta, y pese a ello no tiene que identificarse forzosamente con
la clase precisa de actividades que se producen en ese aparato (Matthews, 1982).
Es perfectamente legítimo hablar de sucesos mentales, postular que un suceso
mental causa a otro, y hacerlo sin aceptar ni rechazar que únicamente los fenóme
nos cerebrales gozan de las propiedades necesarias para definir los estados
mentales. Por supuesto, en los seres humanos los sucesos mentales coinciden con
los fisiológicos, pero no hay necesidad alguna de reducir las explicaciones psico
lógicas al plano neurofisiológico. Más bien, puede sustentarse un nivel explicativo
que conecte la psicología con la neurología, un segundo nivel que la conecte con
factores sociales, e incluso un tercer nivel autónomo, de carácter representacional.
96 | La nueva ciencia de la mente
Sistemas intencionales
Pero si sólo se trata de una manera de hablar, ¿qué hemos ganado con este
gambito aparentemente atrevido? Es probable que Dennett, un discípulo de Ryle,
quisiera prescindir por entero de esta modalidad mentalista y volver a una modali
dad de discurso conductista, más confiable. No obstante, concede que esta última
no es ya adecuada para los fines de la ciencia. En un fragmento decisivo sobre el
conductista B.F. Skinner, asevera: “No hay motivo por el cual no puedan usarse
provisionalmente términos intencionales para describir la función del sistema de
contro) de la conducta en hombres y animales, en la medida en que se encuentre
un camino para ‘librarse de ellos’ inventando un mecanismo que funcione de la
manera especificada” (Dennett, 1978, pág. 62).
Con el desarrollo de sus ideas, Putnam y Dennett han dado un ejemplo del
aporte que la filosofía puede hacer a la ciencia cognitiva. Al responder a los diver
sos interrogantes planteados por el advenimiento de la computadora, basándose
en los antiguos debates sobre la relación entre la mente y el cuerpo y el sentido de
finalidad del agente, estos autores han contribuido a esclarecer diversas cuestio
nes de la ciencia contemporánea de la mente. No obstante, \preo justó declarar .
98 | La nueva ciencia de la mente
que ambos han ingresado con mucha cautela en el terreno de la ciencia cognitiva;
y como veremos en capítulos posteriores, ciertos críticos filosóficos de la inteli
gencia artificial, como John Searle y Hubert Dreyfus, han planteado algunos enig
mas más inquietantes. Por tales motivos, creo saludable pasar a considerar la obra
de Jerry A. Fodor, un cognitivista cabal —el único filósofo que parece no tener
duda alguna en cuanto al destino común de los filósofos y los científicos empí
ricos interesados en las cuestiones de la mente—.
lenguaje, dentro del cual tiene lugar el pensar. Y se fijó como tarea tratar de expli-
citar en qué podría consistir ese lenguaje.
Llegamos así al largo e interesantísimo ensayo de Fodor, 7he Language o f
Thought [El lenguaje del pensamiento] (1975), al que algunos comentaristas han
considerado “la gran línea divisoria” de la filosofía del siglo XX (Piattelli-Pal-
marini, 1983). En este trabajo, Fodor sostiene qúe el lenguaje del pensamiento
debe ser un vehículo sumamente rico para poner por obra los numerosos procesos
cognitivos —percepción, razonamiento, aprendizaje lingüístico, etc.— de que son
capaces los seres humanos. En verdad, si los procesos mentales son computado-
nales, debe haber representaciones en las cuales se ejecuten tales computaciones.
Además, Fodor expone aquí su rotunda opinión en favor del carácter innato de
este lenguaje del pensamiento: las personas nacen con un conjunto completo de
representaciones en el cual pueden acufiar toda nueva f orma de información que
emerja en su experiencia del mundo. Por añadidura, “el lenguaje del pensamiento”
tal vez se asemeje mucho a un lenguaje natural. Bien puede ser que los recursos del
código interno estén representados en foima bastante directa en los recursos de
los códigos que utilizamos para la comunicación. ( ..
relación
cómo
.. em
. hda
sab
probablemente
cap'
las
fcík-actual
teor
r" Ptest
102 | La nueva ciencia d e la mente
fica, a mi juicio, la honda brecha que separa a estas dos corrientes del pensamiento
filosófico actual.
pocos de sus cultores siguen preocupándose por las cavilaciones de los filósofos
(Holton, 1984).
Ninguna de estas críticas me convence del todo. De acuerdo con mi propio
análisis, la filosofía desempeñó un papel decisivo desde el comienzo, al formular
una serie de interrogantes dignos de estudio y repasar el derrotero seguido por esos
interrogantes a lo largo de milenios. Hay progreso'en filosofía, tal vez no tan lineal
como el de las ciencias físico-naturales, pero un claro progreso pese a todo. Este
progreso ha derivado de los debates entre los filósofos; por ejemplo, de la crítica
que formuló Locke a ciertos conceptos de Descartes, y de la que a su vez Bericeley
y Hume formularon a Locke; y puede darse con igual fuerza gracias a la interac
ción entre los filósofos y los científicos empíricos, como el intercambio de ideas
que hubo a comienzos de este siglo entre los físicos y los empiristas lógicos.
En mi opinión, entonces, la filosofía participa en la matriz disciplinaria en
virtud de su papel dialéctico: una dialéctica intema de la disciplina, por un lado, y
por otro una dialéctica del análisis de los filósofos y de los hallazgos y teorías
empíricos de los científicos. En años recientes esto se ha podido comprobar de
manera notoria. Cuando la filosofía parecía encontrarse en retirada, en momentos
en que el programa del empirismo lógico había quedado totalmente desacredi
tado, la invención de la computadora y el comienzo de la ciencia cognitiva subra
yaron súbitamente la necesidad de un análisis muy elaborado; y fueron los pensa
dores familiarizados con la antigua tradición filosófica —con las nociones de Kant
acerca de las representaciones, con las afiimaciones'de Descartes sobre el vínculo
entre la mente y el cuerpo, con el escepticismo de Locke en tomo de las ideas
innatas- los que pudieron aportar el adecuado marco conceptual y revisarlo a la
luz dé los nuevos descubrimientos científicos.
Esto no significa afirmar que las cuestiones tradicionales abordadas por la
filosofía sean intrínsecamente superiores. Si bien a mi juicio la crítica de Rorty
a la epistemología tradicional tiene una “capacidad de destrucción excesiva” , el
tipo de interrogantes que se plantearon los filósofos ha cambiado a lo largo de los
milenios. Algunos de ellos, como el referido a la'índole de la percepción visual,
que ajetreó a los griegos, se ha vuelto un ámbito exclusivo de la ciencia empírica;
otros, como el que se ocupa de la índole de la experiencia sensorial “en bruto” ,
se consideran hoy mal formulados; y otros, en fin, como los vinculados a la finali
dad y el propósito, han cobrado nuevo impulso a raíz de invenciones como la
computadora.
A mi entender, la creación de la ciencia cognitiva ha brindado un maravilloso
estímulo a la filosofía, y la filosofía es una auxiliar indispensable de los científi
cos empíricos. Ella permite definir las cuestiones fundamentales de la ciencia
cognitiva de un modo coherente y asegura la adecuada integración de trabajos
pertenecientes a campos muy dispares. Pero al mismo tiempo, la filosofía debe
seguir diligentemente y de cerca los hallazgos empíricos, si no quiere convertirse
en una disciplina infecunda o estéril para la ciencia. Es oportuno, pues, que la
4. La razón, la experiencia y el status de la filosofía | 105
Miller sobre el mágico número 7.) Pero a esto se añadía un nuevo elemento impor
tante: en lugar de referirse a los límites estructurales de una manera puramente
estática, los estudiosos británicos procuraron determinar con precisión qué sucede
con esta información desde el momento en que el sujeto la aprehende por vez
primera. A partir de este “enfoque ingenieril” , era natural pasara un diagrama de
flujo, representativo de lo que acontece cuando el sistema perceptual opera con
nueva información. Según se expresa en un libro de texto reciente, Broadbent fue
el primer psicólogo de la época moderna que describió el funcionamiento cogniti-
vo con un diagrama de esta índole (Lachman, Lachman y Butterfield, 1979,
pág. 188) (véase la figura de pág. 110).
¿Cómo era ese primitivo diagrama de flujo? Representaba a la. información
procedente de los sentidos, que era reunida en un almacén de corto plazo y luego
filtrada selectivamente, antes de ingresar, en un sistema perceptual de capacidad
limitada. Si bien un órgano sensorial puede captar en paralelo gran cantidad de
información y retenerla momentáneamente, la tarea del filtro selector es bloquear
los mensajes descartables, y así permitir la entrada sólo a aquellos que merecen
ser sometidos a un análisis ulterior. Otra propiedad del filtro selector es que
en cualquier momento puede sintonizárselo de modo tal que sólo permita el ingre
so de los mensajes que cumplan con ciertos requerimientos. El retén [buffer]
puede contener por un breve período la información no analizada, permitiendo así
al sujeto informar acerca del contenido de lo que ingresó por su segundo oído,
luego de haberse desembarazado de los tres dígitos aprehendidos por el primero.
Según el temprano modelo de Broadbent, sólo la información que deviene
consciente (o sea, la que pasa a través del canal de capacidad limitada) puede
incorporarse a la memoria de largo plazo y pasar a formar parte del conocimiento
activo. Se presume que la información presente en un canal al que no se atiende,
o en una señal a la que no se atiende, desaparece en pocos segundos y no es proce
sada más allá de ese primer análisis “pre-atencional” .
Muy pocos investigadores, o ninguno, creían que la percepción o el pensa
miento tuvieran lugar en forma simultánea, o sin pasar por una serie de etapas. No
obstante, con anterioridad a Broadbent, rara vez se había optado por establecer
esas etapas del procesamiento de la información. Esta opción se volvió probable
cuando la ingeniería de comunicaciones comenzó a gravitar sobre los temas de la
percepción y la atención, que desde hacía tanto tiempo interesaban a los psicólo
gos. Pero el modelo de “diagrama de flujo” expuesto por Broadbent y sus colegas,
y sus pruebas sobre las etapas concretas del procesamiento de la información,
abrían muchas otras posibilidades fructíferas. Ahora era posible examinar las
dimensiones temporales de diversos procesos psicológicos, y experimentadores
ávidos siguieron sin pérdida de tiempo precisamente ese camino. Entusiasmados
por las demostraciones de Cherry y de Broadbent, no se inquietaron por el conte
nido particular procesado o por las ciases de transformaciones impuestas.
110
Efectores
iu
Alma
u
cén de Filtro i
co
| La nueva ciencia de la menta
corto selectivo !
ví
u
4c) *oU
plazo
jr n r n
k
p
o
S
*o
•o
c
o
o
o
c
o
£
F u e n te : T o m a d o d e D .E . B r o a d b e n t, P e r c e p tio n a n d C o m m u n ic a tio n ,
E lm s fo rd , N . Y ., P e rg a m o n P re ss, 1 9 S 8 .
5. Psicología: Unión intima de los métodos con la sustancia | 111
cada uno de ellos esté lógicamente ligado al otro, sino porque con frecuencia, en
el caso típico, se dan juntos.
Al igual que con cualquier otra dicotomía, es fácil exagerar esta última y,
consecuentemente, provocar una deformación en este campo de estudio. Casi
todos los psicólogos simpatizan con uno u otro de estos caminos, y muchos pasan
de un enfoque molecular a uno molar, para volver después al primero. Por
ejemplo, George Miller se inclinó por el análisis molecular en su examen del
número 7, pero prontamente se desplazó a uno molar al debatir los planes y obje
tivos en su volumen de 1960. Cuando se utiliza la computadora como modelo,
está tan justificado centrarse en el nivel más molecular (bits, símbolos, circuito
“abierto-cerrado” ) como en los conceptos de programación de más alto nivel
(metas, medios y rutinas). Además, uno puede adherir a un enfoque molecular o
molar por distintas razones: algunos psicólogos parten de un enfoque molecular
en la esperanza de adaptar luego sus métodos a las entidades molares, en tanto que
otros creen que toda conducta puede reducirse y explicarse, en definitiva, por
entidades moleculares. Así pues, con esta dicotomía procuro reflejar una tensión
o pugna en curso que es vital para la psicología, y no meramente dividir en dos
grandes rubros, que podrían rotularse sin dificultades ni vacilaciones, a todos los
experimentos, conceptos y psicólogos.
En toda reseña esquemática del primer siglo de vida de la psicología deben
mencionarse también otras dos tendencias. La primera es la creciente división de
este campo de estudio. Sólo en la Asociación Psicológica Norteamericana hay más
de 50.000 miembros (incluidos varios miles de investigadores activos), que se rami
fican en más de 40 divisiones y en varios centenares de grupos de intereses especia
les, muchos de los cuales ignoran por completo lo que sucede en otros ámbitos de
la Asociación y de la disciplina a la que pertenecen. En esta atmósfera, no resulta
en modo alguno sencillo concretar los empeños por encontrar conceptos unifi-
cadores, por vital que ello sea.
La segunda es la tendencia a la perfección metodológica. Con el correr dei
tiempo, la invención de nuevos instrumentos, el perfeccionamiento de las técnica:
estadísticas, el diseño de estudios individuales y de series de estudios se han vuelto
cada vez más sofisticados. Nadie podría deplorar esto, pero sí cabe plantearse r:
esta creciente sutileza metodológica (en comparación con lo que ocurre, digamos
en la biología molecular) ha profundizado o no nuestra comprensión de los fenó
menos psíquicos. En otros términos, ¿hemos alcanzado un conocimiento más
penetrante acerca de la condición humana, o simplemente estamos recurriendo .
demostraciones experimentales más convincentes para reafirmar lo que ya sabía
mos desde hace largo rato?
A mi modo de ver, este perfeccionamiento metodológico es uno de los logre
de los que la psicología puede estar más orgullosa, pero aún no ha sido integrad'
cabalmente con el contenido de esta disciplina. Es preciso abordar muchos de los
problemas más importantes de la psicología desde una perspectiva molar, que a s.
116 | La nueva ciencia de la mente
Los que echaron los cimientos: Heimhoitz, Fechner, Don den y Brentano
En cierto sentido puede afirmarse que en las postrimerías del siglo XD( la
psicología ya estaba en marcha. Con la labor pionera de Helmholtz y los notables
120 | La nueva ciencia de la mente
quizás, ciertas características del lenguaje y del pensamiento. Wundt dedicó diez
volúmenes a este empeño por construir una psicología de los pueblos.
Como ha dicho George Miller, Wundt contempló el programa de trabajo de
la psicología empirista inglesa con la visión de un hombre versado en las tradi
ciones de la fisiología alemana (Johnson-Laird y Wason, 1977, pág. 2). Al igual
que Hemholtz y Donders, Wundt inventó tareas simples, solicitando a los sujetos
experimentales que ejercieran la introspección mientras las ejecutaban. Un ejem
plo es éste: se les pedía a los sujetos que oprimieran una perilla cada vez que
escuchaban una nota musical; en algunas pruebas, se dirigía la atención del sujeto
hacia la nota, en tanto que en otras se la dirigía hacia el movimiento de sus dedos
sobre la perilla. Se demostró que el tiempo de reacción era mayor cuando el suje
to atendía al sonido y menor cuando debía atender al movimiento del dedo.
De esto Wundt infirió que ese lapso mayor se debía a la apercepción, o sea, el
proceso de aclarar la propia experiencia en la conciencia. Aparentemente, cuando
un individuo se concentra en un estímulo, éste debe ser primero percibido y luego
apercibido, o interpretado conscientemente, a la luz de la respuesta que le está
asociada. Mayores son las complicaciones cuando se le presentan al sujeto varios
estímulos diferentes y sólo a uno de ellos debe responder. Según Wundt, este
proceso dura más tiempo todavía porque se produce la cognición ;el estímulo no
sólo tiene que ser percibido y apercibido, sino además diferenciado de otros
estímulos que no provocarán respuesta (Fancher, 1979, pág. 139).
En la explicación que dio a éstos hallazgos, Wundt puso de manifiesto los
lazos que lo ligaban a la tradición filosófica inglesa. Concibió una experiencia
compuesta de elementos básicos simples, cuyo contenido sensorial en bruto estaba
desprovisto de todo significado; y presumió que todo pensamiento consciente se
formaba mediante combinaciones de estas sensaciones; analizables en términos de
cualidad, modalidad, duración, intensidad, etc. Dichos elementos podían
conformar, de diversas maneras, complejos, de modo tal que un elemento
cualquiera activase a varios más. En el experimento descripto, el sujeto debía
dar cuenta, a través de la introspección, de su percatamiento del efecto de las
notas musicales, sus sensaciones al oprimir las perillas y cualquier otra conexión
que percibiera entre éstas. Para el análisis posterior, las diversas imágenes que
atravesaban su conciencia eran elementos decisivos. Wundt perseguía como obje
tivo identificar las leyes de asociación que tienen lugar en la experiencia de u n
sujeto experimental; pretendía comprender cómo se desenvuelven estas leyes
cuando el individuo genera ideas, y de qué manera alcanza diferentes grados de
claridad.
Importa subrayar que Wundt no era un atomista estrecho de miras ni ignoraba
los efectos del contexto o de las influencias culturales. En verdad, en muchos de
sus estudios prestó atención a las cuestiones molares y a los efectos que van de lo
general a lo particular. Por ejemplo, en sus escritos sobre el lenguaje se anticipó
a algunas ideas de la moderna psicolingüística, como el papel de las intenciones
122 | La nueva ciencia de la mente
previas que gobiernan las emisiones del habla y los efectos de la estructura sintác
tica en la producción de mensajes. Pero todo científico debe ser justipreciado por
el contenido principal de su obra, y en general la psicología de Wundt se nos
presenta como una suerte de química mental, centrada fundamentalmente en el
descubrimiento de los elementos puros del pensar, merced a cuya combinación
se forman los complejos de actividad mental.
Tal fue, en líneas generales, el programa que se trazó Wundt. Debo destacar
que no lo enunció simplemente para luego olvidarlo. Más bien trabajó en forma
incansable durante cincuenta años con el fin de divulgarlo, de adiestrar a los indi
viduos en su práctica y de asegurarse que existieran los laboratorios, manuales,
revistas y congresos especializados gracias a los cuales podría ponérselo en prácti
ca. Wundt tuvo entre sus discípulos a muchos de los investigadores de vanguar
dia de fines del siglo pasado, si no a la mayoría. Fijó criterios rigurosos para la
realización de los experimentos, insistiendo en la selección y entrenamiento
cuidadosos de los sujetos, en el empleo de controles pertinentes y en la réplica de
las experiencias para cerciorarse de que los hallazgos no fueran accidentales. Siste
matizó sus descubrimientos en enciclopedias, manuales y libros de texto,
revisándolos con una regularidad que inspira respeto. Su producción bibliográfica
en psicología, que abarca un período de 63 años, no ha sido jamás igualada.
incluye imágenes que acceden, a la conciencia. En los años que siguieron, un sinnú
mero de estudios provenientes de la escuela de Wurzburgo repitieron y perfec
cionaron este primer informe negativo (véase Boring, 1950; Humphrey, 1951;
Mandler y Mandler, 1964). Henry Watt sostuvo que la tarea consciente (o Auf-
gabe) que se le plantea a un sujeto tenía un importante efecto en sus asociaciones.
Narziss Ach propuso que operaba una tendencia determinante: la tarea en
cuestión orquestaba diversas asociaciones y habilidades del individuo en una
secuencia ordenada y dotada de finalidad —una suerte de voluntad “directiva’’- ,
que lo llevaba sin tropiezos a la ejecución final. Para August Messer la conciencia
era sólo la porción visible de un iceberg; la mayoría de los procesos de pensamien
to se producían debajo de la superficie, con diverso grado de claridad incluso en
el caso de los conscientes. Y finalmente Karl BQhler, una de las figuras fundacio
nales de la psicología, descartó por entero los problemas simplistas planteados por
el grupo de Leipzig y propuso a sus sujetos experimentales tareas sumamente
complejas, como la discusión de problemas filosóficos. Al igual que sus colegas de
Wurtzbuigo, BQhler descubrió diversas variedades de conciencia, como la que
acompaña las actitudes de duda, de sorpresa, y aun la conciencia de la conciencia.
Oswald Külpe se empeñó en reunir todas estas demostraciones, señalando en
su crítica al programa de Wundt (de Leipzig) que no bastaba con plantear proble
mas a los sujetos y dejar que efectuaran su introspección a gusto; era preciso
formularles problemas que les impusieran distintas clases de demandas, y controlar
sus diversos efectos. No bastaba con presuponer que todos los aspectos importan
tes de los procesos mentales son conscientes, que el pensamiento está siempre
regido por imágenes y que los contenidos mentales, al igual que las sensaciones,
son por fuerza los elementos constitutivos del pensamiento. La crítica tenía
también un aspecto más positivo. Gracias a la obra de Külpe y de sus colaborado
res, actos mentales del tipo de la atención, el reconocimiento, la volición, la
comparación y la diferenciación se incorporaron a la psicología. Por cierto que
estos actos carecían de las características perceptuales vividas de las sensaciones,
imágenes y sentimientos, pero no por ello eran' menos importantes. A grandes
rasgos, había una mayor disposición a admitir que en la solución de estos proble
mas actuaban “tendencias estructurantes’’ que iban de lo general a lo particular,
y a aplicar problemas que comprometieran genuinamente el raciocinio del sujeto.
He aquí un antecedente de las inquietudes molares de muchos científicos cogni-
tivistas contemporáneos.
Los wundtianos no aceptaron tales críticas sin réplica. Ambos bandos se
apuntaron tantos: los de Wundt, sobre todo en aspectos metodológicos; los de
Wurzburgo, a mi juicio, en aspectos más sustantivos. Pero a la postre este debate
tuvo una consecuencia fundamental: puso en tela de juicio los méritos de cual
quier psicología que descansara en la introspección, y en particular en la intros
pección de sujetos entrenados, provenientes, en una proporción incómodamente
alta, de las filas de los propios experimentadores. Una empresa tan vasta como lo
5. Psicología: Unión Intima de los métodos con la sustancia | 125
Pero es probable que el influjo que ejercieron los escritos de James en las
generaciones posteriores de psicólogos norteamericanos se debiera más que a
cualquiera de sus afirmaciones, principalmente al espíritu que las impregnaba.
James se hizo eco déla impaciencia prevaleciente con el tono general de la psicolo
gía alemana, y con su inconcluyente introspección. En vez de tratar de averiguar
los contenidos de la vida psíquica y la manera én que estaban estructurados,
James encaminó su atención a las diversas funciones cumplidas por la actividad
mental, a la naturaleza activa y exploratoria de la mente en la formulación de
problemas y el logro de objetivos, y a la perenne dialéctica entre los medios y los
fines. Fue el adalid de un nuevo movimiento norteamericano opuesto al estructu-
ralismo de Wundt y de Titchener, movimiento que llegó a ser denominado correc
tamente “funcionalismo” *. Frente al intento estructuralista de pesquisar los
componentes elementales de la experiencia, la psicología funcionalista procuró
indagar las operaciones de Ja actividad psíquica en las condiciones reales de la vida.
De acuerdo con los preceptos funcionalistas, lo importante es centrarse en las
funciones o disposiciones, como la percepción, la rememoración o el pensamiento,
ya que una función persiste y se reproduce, en tanto que el contenido de concien
cia y las pautas de respuesta específicas sólo acontecen una vez. La ciencia debía
fundarse en esas series más perdurables y significativas de acciones.
Es innegable que el funcionalismo aportó un necesario cambio de orientación
y un contrapeso frente a la búsqueda de las unidades últimas de la conciencia;
pero pocos años después de que sus cánones fueran expuestos por William James
(y también por James Angelí y John Dewey), la psicología norteamericana habría
de experimentar un cambio mucho más radical: el que la llevó hacia el conductis-
mo. Este cambio puede haber sido imprescindible -en -sus comienzos para poner
fin con firmeza a los excesos del estructuralismo y de la introspección, ya fuera
bajo el atuendo de la escuela de Leipzig o de la Wurtzburgo; pero desde el punto
de vista de la historia de la ciencia cognitiva, es poco menos que incuestionable
que esta etapa fue fundamentalmente negativa y regresiva.
La revolución conductista
cen en las porciones superiores del sistema nervioso. Esta era una psicología
molecular, pura y simple, que iba de lo particular a lo general. Watson declaró:
La psicología, tal como el conductista la concibe, es una ciencia natural
puramente objetiva. Su meta teórica es la predicción y control de la conduc
ta. La introspección no forma parte esencial de su método, ni el valor cientí
fico de sus datos depende del grado en que se avengan a la interpretación en
función de la conciencia. En su empeño por alcanzar una concepción unita
ria acerca de las respuestas animales, el conductista no admite línea diviso
ria alguna entre el hombre y las bestias. La conducta del hombre, con todo
su refinamiento y complejidad, no es sino una parte del plan total de inves
tigaciones del conductista. (Citado en Fancher, 1979, pág. 319.)
Orígenes
organiza la percepción. Por ejemplo, mostraron que los objetos próximos entre sí
tienden a ser agrupados (ley de la proximidad); que cuanto más simétrica es una
región cerrada, más tiende a vérsela como una figura (ley de la simetría); y que el
ordenamiento prevaleciente de figura y fondo es aquel que incluye los menores
cambios o interrupciones en sus líneas rectas o levemente curvadas (ley de la
buena continuidad) (Hochberg, 1978). Aunque en*'el comienzo estas leyes estu
vieron referidas por lo común a fenómenos visuales, otras versiones de ellas se
aplicaron también a secuencias auditivas, como por ejemplo las de las pautas rít
micas. Todas estas poderosas demostraciones de los psicólogos de la Gestalt esta
ban imbuidas de su oposición doctrinaria al análisis atomista, puramente molecu
lar, que va de lo particular a lo general; preferían una concepción de la organiza
ción perceptual según la cual las partes están determinadas por la configuración
de la totalidad, y no al revés.
Quizá porque las leyes de la Gestalt eran fácilmente aplicables a toda la gama
de fenómenos de la percepción con los cuales los psicólogos ya estaban familia
rizados (como las diversas ilusiones ópticas y constancias perceptivas), el
movimiento cobró rápida popularidad e influencia, particularmente en el conti
nente europeo; no obstante, sus adeptos no se durmieron en sus laureles. Durante
la Primera Guerra Mundial, Víolfgang Kóhler, abandonado en Tenerife (una de las
islas del archipiélago de las Canarias), emprendió allí una serie de investigaciones
con chimpancés que harían historia.-....—.......
Su interés giraba en tom o de la manera en que estos simios abordan proble
mas cuya solución requiere cierta modificación o “reestructuración” de los
elementos presentes. Así, por ejemplo, para alcanzar una banana que está fuera de
su alcance, el simio debe desplazar una silla de un lugar a otro, unir un palo al
extremo de otro o reorganizar de algún modo la'situación que tiene ante sí.
Kóhler (1925) comprobó que las explicaciones corrientes en términos de ensayo y
error resultaban insuficientes para dar cuenta del comportamiento de los simios
en esta situación. Más bien parecía acontecer un proceso semejante al de los
seres humanos; el chimpancé se detenía a reflexionar, y luego, como acometido
por una intelección súbita, iba en busca de la silla o de la soga que le ofrecía la
solución. De acuerdo con el análisis de Kóhler, el chimpancé “reestructuraba” el
campo que se presentaba ante él, y obraba de ese modo gracias a un momento de
insight o introvisión —lo que la escuela de Wurzburgo había denominado “la
experiencia del Ah”—.
Kóhler discernió distintos grados de inteligencia de los simios, y diferenció
los “brillantes” de los “ necios” . Un chimpancé brillante mostraba regularmente'
esos momentos de introvisión a que acabamos de aludir, en tanto que uno necio
5. Psicología: Unión Intima de los métodos con la sustancia | 131
operaba de un modo muy distinto: aun cuando tuviera ante sí el modelo del
comportamiento correcto, no era capaz de cobrar el preciado tesoro; en lugar de
ello, imitaba fragmentariamente las acciones componentes, sin llegar a advertir,
en apariencia, de qué manera podía relacionarlas para alcanzar la recompensa.
Según la psicología de la Gestalt, las formas más primitivas de aprendizaje
pueden explicarse como una mera repetición de asociaciones fragmentarias, mien
tras que los procesos del aprendizaje superior o “inteligentes” , dondequiera que
aparezcan, se caracterizan por la capacidad de captar las relaciones fundamentales
presentes en una situación. Estos son los criterios de la introvisión: “la aparición
de una solución completa con referencia a la disposición total del campo” (Man-
dler y Mandler, 1964, pág. 248).
Otros miembros de la corriente guestáltica extendieron esta línea de indaga
ción a la resolución de problemas en los seres humanos. El propio Wertheimer
(1945) examinó la solución de problemas geométricos, de enigmas aritméticos, y
hasta los pasos que presuntamente debió atravesar Einstein para llegar a la teoría
de la relatividad. Karl Duncker (1945) se centró en la solución de problemas técni
cos del tipo de los que se presentan cuando se quiere destruir un tumor con rayos
K sin dañar innecesariamente los tejidos interpuestos. Abraham Luchins (1942)
analizó el fenómeno de la fijeza funcional: el hecho de que los usos habituales de
. un material pueden inhibir a un individuo (ya se trate de un antropoide o de un
profesor universitario), impidiéndole percibir cómo debe utilizar ese mismo instru
mento de un modo novedoso a fin de resolver un problema.
Reparemos en que la clase de problemas molares planteados por estos inves
tigadores mostraban un agudo contraste con las tareas moleculares abordadas típi
camente por los primeros estructuralistas alemanes y por los conductistas nortea
mericanos. Estos problemas molares guardaban mayor semejanza con los que
habían formulado los miembros de la escuela de Wurtzburgo, aunque en este caso
no existían los escollos del cúmulo de introspecciones ni la rebuscada terminolo
gía interpretativa; y fueron predecesores directos de los problemas que hoy se
inclinan a plantear muchos investigadores en el campo de la inteligencia artificial.
También las modalidades de explicación son de un orden distinto. Wertheimer y
los otros guestaltistas proponían un abordaje más activo y estratégico de los
problemas, que tuviera en cuenta el reconocimiento de las características estruc
turales: la forma en que estas estructuras son advertidas en un comienzo, las lagu
nas que se perciben en ellas, los elementos que pueden acomodarse o reordenarse
entre sí, y las operaciones dinámicas que es posible ejecutar para llenar tales
lagunas y pasar “de una relación inadecuada y poco clara, a una confrontación
transparente y directa, que va desde el corazón mismo del pensador al corazón
mismo de su objeto, de su problema” , como manifestó Wertheimer en forma algo
grandilocuente (1945, pág. 191).
Para los guestaltistas, el pensamiento superior es productivo y novedoso, no
reproductivo. Al enfrentar un problema se producen en formajegular reorganiza-
132 | La nueva ciencia de la mente
Pese a lo cual, Neisser terminaba con esta afirmación más positiva: “Sean
cuales fueren nuestras diferencias, todos seguimos trabajando aún en el problema
formulado por Wertheimer: ver el mundo ‘desde arriba’, como había dicho Koh-
ler, en lugar de verlo desde abajo, porque desde allí la visión es por cierto mejor”
(pág. 6). Esto nos está sugiriendo que tal vez haya llegado la hora oportuna para
que prevalezca el enfoque que va de lo general a lo particular.
Bartlett se lanzó a una serié de estudios en que se relataba a los sujetos histo
rias exóticas y se les pedía luego recordarlas en momentos separados entre sí por
diversos intervalos. (Una variante del procedimiento consistía en mostrar figuras
geométricas o exponer argumentaciones lógicas, para pedir más tarde el corres
pondiente “informe”.) Bartlett (1932) comprobó que los sujetos no podían
recordar con exactitud lo que escuchaban; y algo mucho más revelador aun: las
imprecisiones de sus informes mostraban pautas sistemáticas. Por ejemplo, si se les
relataba “la guerra de los fantasmas” —una leyenda indígena que, para el oído de
un occidental moderno, parece llena de extrañas lagunas y desorbitantes secuen
cias causales—, los sujetos por lo común introducían sus propios nexos causales,
dejaban de lado la información que les era difícil asimilar y modificaban el argu
mento hasta volverlo semejante al de una narración occidental común y corriente.
Además, en el recuerdo posterior del relato estas alteraciones ocupaban un lugar
cada vez más preponderante, hasta que el relato alcanzaba una forma relativamen Las inquietudes evolutivas de Jean Piaget
te estable, mucho más próxima a la de un relato occidental prototípico que a la
leyenda indígena original. Jean Piaget se inició en la psicología de una manera poco usual. Formado
como biólogo, con un particular interés por los moluscos, se empleó como
Bartlett trató de dotar de sentido a sus hallazgos apoyándose en la noción de
ayudante en el laboratorio de Théodore Simón, ex colega de Alfred Binet, el
esquemas, término utilizado (aunque en un sentido algo distinto) por Kant e intro
inventor de la prueba del cociente intelectual (CI). Pero Piaget nunca aceptaba las
ducido en la psicología de esa época por el neurólogo británico Henry Head.
tareas tal como le eran ofrecidas, y comenzó a indagar el tipo de errores que
Sostuvo Bartlett que el sistema mnémico típico de los seres humanos incluye la
cometían los niños al responder los ítems de la prueba de inteligencia. Durante
formación de estructuras cognitivas abstractas o esquemas. Los esquemas surgen
toda su vida su objetivo fue fundar una epistemología sobre principios biológicos;
a partir de los encuentros previos que el sujeto ha tenido con su medio, como
para ello decidió dar un “ breve rodeo” , a fin de estudiar el desarrollo del pensa
resultado de los cuales llega a organizar ciertas clases de información de una
miento de los niños. Más tarde acostumbraría decir que este rodeo le llevó la vida
manera específica. Así, al escuchar el relato sobre “ la guerra de los fantasmas” ,
los sujetos se apoyaban en los esquemas que poseían para abordar la experiencia entera.
cotidiana, en general, y en los relatos de aventuras o de fantasmas, en particular. En el curso de una carrera de sesenta años en la que rivalizó con Wundt en
A fin de dotar de sentido a esa historia (acerca de un grupo de guerreros que van cuanto a su productividad y lo superó en su influencia sobre los investigadores
en una canoa a matar gente), los oyentes aplicarían experiencias propias (vincula posteriores, Piaget suministró varias descripciones del curso evolutivo del pensa
das, por ejemplo, con un viaje nocturno en canoa por el río), así como informa miento infantil en una variedad de dominios (para un panorama sobre esto, véase
ción estructurada a partir de otros relatos que habían escuchado con anteriori Piaget, 1970). Su obra exhibió siempre dos rasgos singulares. Por un lado, ajustán
dad (los típicos relatos de aventuras en que intervienen habitantes de pueblos dose estrechamente a la definición que he dado de un científico cognitivista,
primitivos y fantasmas). En el relato ofrecido por Bartlett, en la medida en que la Piaget adoptó como programa de investigaciones las grandes cuestiones de la epis
información era compatible con estos esquemas previamente construidos, la reme temología occidental: la naturaleza del tiempo, el espacio, la causalidad, el núme
moración resultaba más fácil y podía ser también más precisa. Por otro lado, las ro, la moralidad y otras categorías kantianas. Estas categorías no eran para él ele
divergencias entre los esquemas previos y los detalles del relato actual originaban mentos dados en la mente, sino que se las construía, como propuso Helmholtz,
deformaciones sistemáticas en la.primera-reproducción del relato, y probablemen durante todo el curso del desarrollo infantil. Por otra parte, Piaget insistió en
te mayores desviaciones en las reproducciones subsiguientes. llevar a cabe minuciosas y concienzudas observaciones de los niños, a veces mien
tras se dedicaban al libre juego y exploración, y más a menudo al ejecutar tareas
Refiriéndose a esto en términos más generales (y sin duda teniendo en cuenta
experimentales que Piaget inventó inteligentemente.
el experimento tradicional de las sílabas sin sentido propuesto por Ebbinghaus),
Bartlett declaró: Tal vez lo que más recuerden de Piaget la comunidad psicológica y el público
en general sean sus brillantes paradigmas experimentales y sns cautivantes demos
El recordar no consiste en la re-excitación de innumerables huellas traciones prácticas, que ejercieron profunda repercusión en todos los trabajos
mnémicas fijas, fragmentarias y carentes de vida, sino que es una imaginati posteriores de la psicología cognitiva del desarrollo. ¿Quién, antes de él, sospechó
va reconstrucción o construcción elaborada a partir de la relación de nuestra que, para un niño pequeño, un objeto sigue estando en el mismo lugar en que se
actitud con todo un conjunto activo de nuestra experiencia pasada. ( ...) encontraba aun cuando delante de sus narices haya sido trasladado a otro sitio?
Así pues, el recuerdo casi nunca es realmente exacto, ni s i q u i e i a en los c a s o s
más rudimentarios en que un sujeto recapitula algo “de memoria”, ni impor ¿Quién supuso que en la etapa de deambulación los niños son incapaces de
ta en absoluto que lo sea. Esta actitud es, literalmente, un efecto de la capa apreciar el aspecto que presentan una serie de objetos desde una perspectiva distin
cidad del organismo para volverse hacia sus propios “esquemas”, y es una ta de la que ellos tienen? ¿Quién pudo prever que para un preescolar el volumen
función directa de la conciencia (1932, pág. 213). de un líquido cambia cuando se lo vuelca en un recipiente de distinta forma?
Aun cuando no siempre las demostraciones de Piaget conservaron su validez exac
tamente como él las describió, el saber ulterior en este ámbito se basó invariable
Bartlett hizo mucho más que mantener vigente un modelo para los estudios
mente en sus descubrimientos precursores. ¡_
molares: anticipó en forma directa el sistema de autorreflexión que científicos
cognitivistas como George Miller considerarían central para la cognición humana. Pero Piaget no se consideraba a sí mismo un psicólogo de niños sino un
136 | La nueva ciencia de la mente
podían adjudicarse esos procesos. Sin duda alguna, fueron los logros de algunos
psicólogos innovadores, como Donald Broadbent, Jerome Bruner y George Miller,
así como el interés por los descubrimientos de Piaget, Bartlett y algunos trabajos
de los guestaltistas, los que promovieron el vuelco hacia la psicología cognitiva.
En algunos casos, las eficaces técnicas de la matemática y la teoría de la informa
ción se aplicaron simplemente a algunos aspectos elementales del aprendizaje y de
la resolución de problemas que habían quedado pendientes desde el pasado; pero
en sus ejemplos más felices, la nueva tecnología se concentró vigorosamente en
problemas sustantivos.
Era lógico que el modelo modal se convirtiera en el eje de toda una gene
ración de textos sobre la memoria. Los textos orientados por el modelo
seguían característicamente el derrotero del aflujo perceptual desde los órga
nos sensoriales hasta el cerebro. ( . .. ) El problema principal que presentó
este tipo de organización de los libros de texto es que a fines de la década
de 1970 el modelo de las “etapas secuenciales” ya había dejado de ser
modal. (Glass. Holyoak y Santa, 1979, pág. iv.)
estos experimentos; los significados, las expectativas, los efectos del contexto
están siempre presentes, y muy a menudo constituyen el factor, predominante.
Los psicólogos de la tradición de Donders, Sperling y Stemberg desarrollaron
modelos cada vez más elegantes referidos a efectos que, al modificárselos de diver
sas maneras, revelaban su endeblez; y estos modelos no ofrecían, a todas luces, un
cuadro más amplio y abarcador del modo en que se procesa la información en
situaciones de la vida real. A la larga, muchos de estos mismos investigadores
abandonaron la tradición fundada por ellos y se embarcaron en otras líneas de
estudio.
Una de estas corrientes investigó los efectos del conocimiento general (el
denominado “ conocimiento del mundo real”) sobre el abordaje de tareas lingüís
ticas simples en apariencia. John Bransford y sus colegas de la Universidad Van-
derbilt establecieron un paradigma experimental precursor. En él, cada sujeto
escucha diversas oraciones, presuntamente en forma muy atenta porque sabe que
más tarde se lo indagará acerca de ellas. En una parte posterior del estudio, sin
habérselo advertido previamente, se le hace escuchar una nueva serie de oracio
nes, se le pide que indique si ya ha oído alguna de ellas con anterioridad, y qué
grado de seguridad tiene acerca de la corrección de su respuesta. Bransford y sus
colaboradores comprobaron que la formulación precisa de las oraciones que los
sujetos habían escuchado inicialmente afectaba muy poco su respuesta. Paree, ’
atender, más allá de esa formulación superficial, al significado de la oración; e
probable que aceptaran como equivalente una oración cuyo contenido fuera idén
tico al de alguna de las oídas inicialmente, y aun que combinaran el contenido d(
oraciones dispares si éstas podían acomodarse entre sí. Supongamos, por ejemplo,
que al principio el sujeto escuchaba estas dos oraciones: “Las hormigas se comen
la mermelada” y “Las hormigas estaban en la cocina” . Ante estos estímulos
muchos tendían a afirmar que habían escuchado la oración siguiente: “ Las hormi
gas de la cocina se comen la mermelada” o incluso “Las hormigas de la cocina se
comen la mermelada que estaba sobre la mesa” (Bransford y Franks, 1971, p„t
339).
El paradigma de Bransford pone de relieve los procedimientos iníérenciales e
integradores de los sujetos al abordar el lenguaje, y por ende arroja dudas sobre 1.
legitimidad de las conclusiones extraídas a partir de centenares de experiencias e'
que se pedía a los sujetos recordar sílabas o frases sin sentido' Los resultados de
Bransford sugieren que la rememoración no es pasiva y repetitiva, sino más bie.
que los sujetos procesan la información en forma activa y constructiva, infirier
do significados en lugar de recordar meras cadenas de palabras. * .
144 | La nueva ciencia de la mente
dones. Y en tal caso, es también más probable que quede firmemente codificada
y se la recuerde en forma adecuada. De la naturaleza del estímulo, del tiempo
disponible para el procesamiento, y de las motivaciones, objetivos y saber previos
del sujeto depende que el estímulo sea procesado en un nivel poco profundo
(superficial o sensorial), o en un nivel más integrado semánticamente.
Este enfoque de la “profundidad del procesamiento” (Craik y Lockhart,
1972) ha sustituido, al menos parcialmente, a .«los modelos secuenciales del
procesamiento de la información. De acuerdo con este punto de vista, la natura
leza de la información de entrada está determinada por las operaciones que se
cumplen durante su ingreso. Y estas operaciones de ingreso incluyen el análisis no
sólo de los aspectos sensoriales sino también de los rasgos semánticos. Así, la
memoria depende de la naturaleza del código y del tipo de análisis emprendido, y
no de las propiedades de determinados almacenamientos. Por otra parte, no hay
necesariamente una forma de codificación superior a otra. De ordinario, es prefe
rible el procesamiento en profundidad; no obstante, suele ocurrir que sea más
recomendable una modalidad superficial de procesamiento si, por ejemplo, uno
trata de recordar las palabras que riman con las de una lista dada (Lachman,
Lachman y Butterfield, 1979, pág. 279). En definitiva, para la psicología contem
poránea el memorizador tiene muchas opciones: puede escoger procesar la
información en distintos grados de profundidad, y aun hallar preferible para algu
nos fines una modalidad menos profunda. Nos hemos apartado mucho de la
corriente que llevaba obligatoriamente de la memoria periférica a la de largo plazo.
En verdad, en su aceptación de la búsqueda de metas,* de diversos enfoques déla
información y .de contenidos dotados de gran significado, la psicología ha vuelto
a hacer suyo en parte el programa de la escuela de Wurtzburgo.
El interés por .las formas_periféricas de estimulación y .por el procesamiento
independiente del contexto [context-freé] se justifica sin duda, pero harto a
menudo parece dejar intacto lo central del procesamiento psíquico humano. Al
proceder de una manera molar, de lo general a lo particular, los trabajos sobre los
esquemas, los relatos y la profundidad del procesamiento les parecen a muchos (y
me incluyo entre ellos) más cercanos al eje de las cuestiones que la psicología debe
abordar. No obstante, cabe preguntarse si esta rama de la psicología ha logrado
algo que no fuera notorio para nuestros antecesores, o aun para cualquier obser
vador lego en psicología. Después de todo, no es menester la tecnología del siglo
XX ni elaboradas estadísticas para demostrar que los individuos aportan a cada
nueva actividad sus experiencias y sus marcos organizadores, o que es posible
procesar la información con mayor o menor empeño según los diversos propósi
tos.-Y si adherimos al enfoque propio de nuestro siglo, la pregunta que surge es
si hemos avanzado más allá de los guestaltistas y los adeptos a la escuela de Wurtz
burgo, o si simplemente estamos redescubriendo lo que ellos ya sabían, y que los
conductistas y procesadores de información estrechos de miras aparentemente
habían olvidado.
5. Psicología: Unión intima de los métodos con la sustancia | i*w
Representaciones menta/es
respondan si son iguales dos formas geométricas, a una de las cuales se la ha hecho
rotar, o bien que respondan a preguntas vinculadas con otras clases de entidades
también Tepresentables con imágenes, como la forma de los 50 Estados que cons
tituyen los Estados Unidos de América (Shepard y Chipman, 1970).
Junto con su colega Jacqueline Metzler, Shepard descubrió que el tiempo de
reacción para pronunciarse acerca de la identidad de formas está en relación direc
ta con la magnitud de la diferencia angular entre la orientación de éstas (1971).
Cuando el ángulo entre ambas figuras es próximo a cero, se obtiene una respuesta
casi instantánea, en tanto que a medida que el ángulo se acerca a los 180°, el
tiempo de reacción del sujeto aumenta en proporción lineal a su magnitud. Para
los autores, esto demuestra que los sujetos efectúan la comparación rotando
mentalmente una u otra figura a un ritmo constante. Esta labor de imaginación
simula la trayectoria que recorrerían las figuras si estuvieran efectivamente a mano
y se las hiciera rotar ante los propios ojos.
Los experimentos llevados a cabo por Roger Shepard y, en años más recien
tes, por Stephen Kosslyn, son controvertibles, pero pospondré su discusión para
el capítulo 11. Por el momento, es oportuno destacar la creencia de Shepard de
que los científicos cognitivistas han errado el camino al postular representaciones
preposicionales (de tipo lingüístico) como la lingua franca de los sistemas cogni-
tivos. El hecjho de que las computadoras puedan transmitir información sólo en
una forma simbólica y que habitualmente asi lo hagan no es razón para presumir
que lo mismo ocurre con los seres humanos. Para Shepard, las imágenes mentales
constituyen una capacidad humana que ha evolucionado a lo largo de millones de
años, de modo de permitir al organismo enfrentar un medio en permanente
cambio, cuyas consecuencias debe ser capaz de anticipar. Sea cual fuere el foco
inicial de esta inquietud, dicho conocimiento ha sido internalizado a lo largo de la
evolución, de modo tal que ahora está “instalado” [pre-wired\ en los individuos
y rige su manera de aprehender los objetos en el espacio.
Por lo demás, estas capacidades no se limitan ala modalidad visual. Los traba
jos de Shepard sobre la audición sugieren que en la representación y transforma
ción de sonidos musicales operan los mismos principios generales (de conserva
ción, simetría, proximidad, etc.) que en la información de origen visual. Así
pues, Shepard ha llegado a suscribir algunas de las nociones básicas de la psicología
de la Gestalt, al par que le ha dado fundamentos experimentales más rigurosos
(Shepard, 1981,1982; véase también Jackendoff, 1983).
Los trabajos de Shepard, aunque surgidos de investigaciones sobre la informa
ción en una única modalidad sensorial, han cuestionado gran parte de los hallaz
gos de la corriente principal de la psicología cognitiva. Si le fuera posible estable
cer una argumentación convincente para más de una modalidad, se nos plantearía
si no habría acaso múltiples modalidades de representación mental, cada una de
ellas ligada a un contenido particular. En bien de la parsimonia, la mayoría de los
filósofos y no pocos psicólogos han votado en favor de una forma única. La postu
5. Psicología: Unión íntima de los métodos con la sustancia | 149
Contribuciones de la psicología
empleados para dar cuenta de estos fenómenos son también muy distantes entre
sí.
Un decidido y ambicioso esfuerzo para introducir construcciones teóricas
unificadoras fue la labor desarrollada en la última década por John Anderson
(1983). Psicólogo de honda raigambre en la práctica de la inteligencia artificial,
Anderson creó el sistema denominado “Control adaptativo del pensamiento”
(CAP), al que presenta como un modelo general de la “arquitectura de la cogni
ción” .
El sistema CAP incorpora un modelo de proceso que describe el flujo de
información dentro del sistema cognitivo. La idea central es la de un sistema de
producción (cuyo examen más detallado haremos en el capítulo 6). Tan pronto se
activa en grado suficiente el nodo de una red, se realiza una cierta acción (o
"producción” ); se ha dicho que esta construcción teórica es una suerte de vínculo
cognitivo entre el estímulo y la respuesta, ya que cada vez que están presentes los
fenómenos estimuladores apropiados, se produce la acción. El sistema incluye
diferentes clases de memoria: una memoria operativa (que consta de la informa
ción con la cual puede trabajar habitualmente el sistema), una memoria declara
tiva (que incluye proposiciones) y una memoria de producción (que abarca las
acciones desarrolladas por el sistema). Hay también otros numerosos mecanismos.
Los procesos de codificación depositaren la memoria'operativa la información
vinculada con el mundo exterior. Los procesos de desempeño convierten en
comportamientos las órdenes existentes en la memoria operativa. Hay un proceso
de almacenamiento que establece registros permanentes en la memoria declarativa;
un proceso de recuperación, por el cual se vuelve a obtener la información de la
memoria declarativa; y un proceso de ejecución, que deposita en la memoria
operativa la acción de producciones comparadas. Un proceso de comparación esta
blece la correspondencia entre los datos de la memoria operativa y las condicio
nes de la producción. Los trabajos teóricos de Anderson han procurado elucidar
la índole de las estructuras de conocimiento que tienen su sede en la memoria
operativa, el proceso de almacenamiento y el proceso de recuperación, así como
los diversos factores que activan las producciones.
Esta andanada de mecanismos y conceptos pone de relieve la complejidad del
sistema de Anderson; también es muy complicada la serie de pruebas que ha ofre
cido. El sistema es objeto de controversias; algunos psicólogos han depositado sus
esperanzas en la empresa iniciada por Anderson, en tanto que otros sospechan que
se apoya en arenas movedizas. Uno de los críticos que no simpatizan con sus
empeños, Keith Holyoak, apuntó lo siguiente:
Mi propia opinión es que todavia.es prematuro dar por terminados los esfuer
zos por localizar y describir un sistema cognitivo general. Al igual que Piaget
otros “sistematizadores” , Anderson ha sido lo bastante atrevido para intentarlo
pero aun cuando fracase, los pasos que ha dado y hasta los errores que ha come
tido nos dejarán enseñanzas. No obstante, existe para mí una diferencia notorñ.
entre Piaget y Anderson. Piaget, sean cuales fueren sus vaivenes teóricos, siempr
ha estado profundamente comprometido con los fenómenos de .la cognición, y
sus principios de un intenso trabajo directo con los niños en un rico marco clíni
co; en verdad, en esto consiste su más perdurable aporte a la psicología. En cam
bio, Anderson parece a veces proponer una psicología de segundo orden: una psi
cología basada en la lectura de los tratados de otros eruditos (a veces tomados
demasiado en serio) y que procura amoldarse a la computadora digital, en lugar d .
sumergirse en los fenómenos reales del pensamiento, el recuerdo, la percepción
etc. Si esta caracterización es correcta, el CAP sería más bien un sistema dotado
de coherencia intema, desvinculado de los fluidos procesos reales del pensamien
to humano... ... ~ : r ..
Hay dentro de la psicología una larga tradición de estudiosos que han dejado
de lado el contenido particular de la información, tradición que se remonta i.
Donders y que ha obtenido pleno apoyo de las investigaciones precursoras df
Broadbent, Bruner, Miller y sus colegas. También los trabajos de Anderson
encuentran cabida en ella. No obstante, en años recientes, muchos otros investi
gadores, y en especial Jerry Fodor (1983), han sugerido que la mente es concebí
ble más bien como un conjunto de dispositivos de procesamiento de informador
en gran medida separados entre sí, algunos de los cuales están preparados para
ciertas clases específicas de contenido (lingüístico, visual, musical, etc.). Segur,
esta concepción “modular” , se han desarrollado con el curso del tiempo módulos'
destinados a cumplir estos análisis específicos de una manera compacta, rápida y
encapsulada; la comunicación entre los módulos sólo se produce subsiguiente
mente, de un modo que aún permanece en la oscuridad. Los “modulistas” des
creen considerablemente que se necesite alguna función central ejecutiva o de
procesamiento; y aun los que, como Fodor, creen en tales sistemas centrales, son
escépticos en cuanto a que la ciencia cognitiva llegue alguna vez a explicarlos
La concepción modular, por la cual tengo gran simpatía (Gardner, 1983)
contrasta con las teorías cognitivas “ciegas en cuanto al contenido” así como con
las que suscriben la creencia en “facultades horizontales” . De acuerdo con ur.
punto de vista horizontal como el adoptado por Anderson, Se presupone que
facultades como el aprendizaje, la memoria y la percepción operan de manera--
igual o semejante, con independencia de que el contenido sea verbal, figurativo,
~2 | L a nueva ciencia de la mente
musical, ¡gustativo, etc. Pero, tal como Fodor y yo hemos intentado mostrarlo,
iy un cúmulo de pruebas de que mecanismos psíquicos “verticales” abordan en
forma individual estos diferentes contenidos. Parece probable que el modo en que
iús seres humanos tratamos las sintaxis en el lenguaje, por dar un ejemplo, tenga
.uy pocas propiedades fundamentales en común con el modo en que transforma-
•nos las imágenes espaciales o en que interpretamos la expresividad musical. Ningu
na de estas posibilidades fueron apreciadas en grado suficiente por la primera
_ jneración de psicólogos cognitivistas, y básicamente las ignoraron o subestima-
~nn aquellos qué, como Anderson o Piaget, intentaron construir arquitecturas
cognitivás generales.
. Si los partidarios de la concepción modular están en el camino correcto,
' '-psicología enfrenta una perturbadora amenaza. En lugar de constituir una disci
plina coherente y unitaria —como sus figuras rectoras han procurado, com pon
iblemente, que lo fuera— quizá termine pareciéndose más bien a un “trust” ,
a un holding, una empresa de la cual se han fundado varias subsidiarias. Según
esta visión, los estudios del lenguaje, la música, el procesamiento visual, etc.,
^eben proceder por separado, sin pretensión de que concurran en una superdisci-
"ina única. (En el capítulo final sugiero que éste puede ser el destino posible de
Paciencia xognitiva en su conjunto.) Como este desenlace desafiaría las opiniones
Mue gozan de más.prestigio dentro del campo, importa continuar exponiendo des-
ipciones sintetizadoras, a la manera en que lo hacen estudiosos como Anderson.
Los debates actuales enfrentan a los “generalistas” o “centralistas” con los
modulistas” (véase, por ejemplo, Piattelli-Palmarini, 1980); sin embargo, tal vez
íos-y-otros hayan alcanzado verdades-importantes. Quizá-los modulistas tengan
~tzón en suponer que muchos dominios se rigen por sus propias leyes, y los centra-
ustas, en creer que existe un reino intelectual sintético donde los procesos modula-
s resultan insuficientes y es preciso recurrir a los procesos horizontales. Puede
"¡unir entonces que el debate se centre en el hecho de si alguno de los dominios
modulares puede incluirse como un aspecto especial dentro de una concepción de
_ .ocesamíento central.
*-•- En general, estas discusiones en tom o al enfoque modular y al centralista las
han entablado personas que simpatizan con los métodos y conceptos de la psico-
. ^gía cognitiva; pero también se han dejado oír otras voces críticas muy severas
erca de esta última. Una escuela deplora la artificialidad de los estudios que lleva
a cabo, sosteniendo que sus modelos más convincentes corresponden a tareas que
uenen rauy poca relación con las actividades humanas corrientes, mientras que los
tudios que sí la tienen, adoptan la forma de enigmáticas demostraciones más que
de experiencias enriquecedoras de la teoría. Las críticas más acerbas sugieren que
quizás, todo el enfoque del procesamiento de la información esté desencaminado;
le representar la cognición humana en función de una serie de operaciones basa
bas en el contenido psíquico es, lisa y llanamente, ofrecer un mal modelo de la
mente; y que debe postularse algún enfoque radicalmente distinto, que quizá
5. Psicología: Unión Intima de los métodos con la sustancia | 153
■nadie haya articulado aún (Shanon, 1985). Volveré a este tema al ocuparme de la
paradoja computacional.
Incluso algunos de los especialistas más destacados en psicología han manifes
tado este escepticismo. Ulric Neisser, en su libro Cognitive Psychology, publi
cado en 1967, desbordaba de optimismo en cuanto al promisorio futuro de este
campo; no obstante, una década más tarde, en Cogmtion and Reality [Conoci
miento y realidad] (1976), se mostró mucho más cauteloso. Reprochó entonces
a sus colegas por haber rendido tributo al modelo de la computadora y por su
insistencia en los planteos artificiales de laboratorio, y se lamentó de la falta de
una psicología que poseyera validez ecológica, o sea, que abordara la clase de
problemas con que se topan los seres humanos en su vida cotidiana.
Según Neisser, una psicología como ésta —carente de validez ecológica, indi
ferente a la cultura—corre el riesgo de convertirse en una especialidad estrecha de
miras y sin interés alguno. Y “los villanos de esta historia son los modelos mecani-
cistas de procesamiento de la información, que consideran la mente como un dis
positivo de capacidad preestablecida para convertir datos de entrada aislados y
sin sentido en perceptos conscientes” (1976, págs. 7, 10). Neisser (1984) aboga
por una psicología perceptual que estudie la manera en que los seres humanos ven
el mundo que los rodea al desplazarse por él e interactuar con los objetos (Gibson,
1979); por investigaciones sobre la'formáción de conceptos qué tengan en cuenta
los objetos complejos del mundo (Rosch, 1973b), y por estudios de la memoria
que incluyan relatos autobiográficos, testimonios directos y el recuerdo de los
amigos de la infancia (Bahrick, Bahrick y Wittlinger, 1975). John Morton, uno
de los más destacados psicólogos del procesamiento de la información en Gran
Bretaña, ha declarado: “Si nos atenemos a su significatividad, la psicología expe
rimental ha tenido una historia catastrófica” (1981, pág. 232). Y Amold Glass,
Keith Holyoak y John Santa, autores de un prestigioso libro de texto sobre psi
cología cognitiva, formulan la inquietante conjetura de que la psicología “ se haya
lanzado a una carrera a gran velocidad por una pista corta y en círculo” ; explican
de este modo qué quieren decir con ello:
Pocas disciplinas tuvieron en lo que va de este siglo una historia tan triunfal
como la psicología, y parece poco oportuno predecir su desaparición en aras de
una disciplina más amplia. Sin embargo, precisamente las innovaciones psicológi
cas de las últimas décadas dieron origen a una revolución cognitiva de mayor
envergadura, dentro de la cual la psicología ha ocupado a todas luces un lugar
preponderante. En modo alguno puede considerársela como una mera “ operación
de contención” ante la emergencia, hasta que la neurología, la sociología o la
antropología puedan hacerse cargo. No menos que tantos otros estudiosos, los
psicólogos han argumentado con éxito en favor del carácter central de la mente
y de la representación psíquica dentro del medio científico actual. La fusión que
en última instancia se produzca entre la psicología y la inteligencia artificial y
5 . Psicología: Unión intima de los métodos con la sustancia | 157
otras disciplinas, para constituir una ciencia cognitiva más amplia, rendirá tributo
'a su triunfo y su importancia.
Tal vez lo ocurrido en la última centuria haya demostrado que es difícil llevar
a su consumación la ciencia psicológica, al menos sin la ayuda de otras disciplinas;
pero no es menos claro que estamos muy lejos de aquel momento en que Kant
declaró, menos de dos siglos atrás, que la psicología como ciencia era imposible.
6 Inteligencia artificial: la herramienta del experto
Al final de este capítulo evaluaré los respectivos méritos de estas dos versio
nes de la IA. —
Esta tensión entre los partidarios de la versión débil y de la versión fuerte ha
originado uno de los más trascendentales debates, pero en modo alguno el único.
Como comentó recientemente Robert Wilensky, un destacado investigador en el
campo de la IA, ésta “ha cobrado fama por la falta de consenso que impera en él
acerca de cuestiones fundamentales” (1983, pág. xii). De hecho, en una historia
sintética de este campo, Alien Newell (1983) pudo discernir no menos de tres
docenas de problemas que, en uno u otro momento, dividieron a sus cultores.
Algunas de estas cuestiones son muy técnicas y otras de interés sólo pasajero, pero
dos de ellas me parecen-destacables.
La primera discrepancia importante es la que existe entre los “ generalistas” y
los “expertos” , tirantez que nos recuerda la dialéctica entre las concepciones
modular y de procesamiento central en la psicología contemporánea. Los gene
ralistas creen en programas globales (o familias de programas) que puedan apli
carse a la mayoría de las variantes de un problema, en tanto que los expertos
depositan su fe en programas que contienen conocimientos mucho más detalla
dos acerca de un dominio específico, pero que en cambio tienen aplicabilidad más
restringida. Una segunda discrepancia tiene que ver con el carácter científico de
esta disciplina. Algunos de sus fundadores estaban dispuestos a defender vigorosa
mente su valor científico (en verdad, hasta entendían que la IA podía reemplazar
a la epistemología), mientras que otros, más escépticos, se preguntan hoy si la
IA merece ser considerada una ciencia. Desde el punto de vista de estos últimos,
no es más que una variante de ingeniería aplicada —hay quienes incluso la consi
deran un mero conjunto de “tretas y artimañas” - , sin título genuino para erigir
se en una disciplina científica de base teórica. Por cierto, un escepticismo similar
a éste cundió respecto de otras ciencias cognitivas, pero quizás a raíz de las espec
taculares promesas que ofrecía la “máquina pensante”, las batallas libradas en
tomo del carácter científico de la IA han sido particularmente fogosas.
En este capítulo pasaré revista a las oscilaciones en el espíritu de los cultores
de la IA y a los diversos puntos de vista que han caracterizado a sus adeptos y
comentaristas más destacados durante sus primeras tres décadas de vida. Desde
luego, no me será posible referirme a todas y cada una de las ramas de la IA;
por ejemplo, no aludiré, salvo de manera incidental, a los trabajos sobre robots,
recuperación de información a partir de bases de datos, planificación de combina
ciones o programas óptimos, simulación de actividades organizativas o elaboración
de programas que a su vez pueden elaborar programas —aun cuando estas áreas son
incluidas en las reseñas actuales sobre la IA (Nilsson, 1980; Waldrop, 1984a,
1984c, Winston, 1977). Sólo examinaré aquellas lineas de trabajo a m i juicio jnás
significativas para la psicología humana, y al final del capítulo procuraré situar el^
campo de la IA dentro del marco más amplio de la ciencia cognitiva. í '
162 | La nueva ciencia de la menie
Aunque la 1A tiene una breve historia, el sueño de crear una mente mecánica
se remonta a mucho tiempo atrás. Las primeras insinuaciones pueden discernirse
tal vez en la obra de René Descartes, interesado en autómatas capaces de simular
el cuerpo humano (era escéptico en cuanto a la posibilidad de simular la mente).
Inspirados o no por Descartes, otros pensadores de la tradición francesa fueron al
parecer los primeros en imaginar una máquina dotada de la facultad de razona
miento. En 1747, el médico francés Julián Offray de la Mettrie publicó en París
su libro L ’H omme Machine, donde aducía que “el cuerpo humano es una máquina
que da cuerda a sus propios resortes” (citado en McCorduck, 1979, pág. 36),
y que el cerebro, como órgano de pensamiento, podría ser objeto de estudio y de
reproducción. “Hay tan poca incompatibilidad entre el pensamiento y la materia
organizada —dijo-, que aquél parece ser una de las propiedades de esta última, en
un pie de igualdad con la electricidad, la facultad del movimiento y la impene
trabilidad” (citado en Lowry, 1971, pág. 42).
Llevando estos mismos razonamientos a un terreno más práctico, el artesano
Jacques de Vaucanson fabricó una serie de autómatas mecánicos que conmocio
naron a Europa a comienzos del siglo XVIIl (patos mecánicos, flautistas, ejecutan
tes de pífanos y tamboriles). En un extenso documento que acompañaba a uno de
sus flautistas, Vaucanson señaló qué cada una de sus partes había sido modelada
en conformidad con elementos similares del modelq humano. John Marshall,
historiador de la psicología, sostiene que a Vaucanson “ le interesaba enunciar
y convalidar, en el lenguaje formal más preciso que fuera posible, una teoría
acerca del flautista alemán” (Fryer y Marshall, 1979, pág. 261).
Cambiemos ahora de escenario, trasladándonos a la Inglaterra del siglo XIX,
donde diversos individuos se afanaban por la mecanización del pensamiento
mediante métodos mucho más próximos a los nuestros. Uno de ellos fue Charles
Babbage, brillante y premonitorio matemático de Cambridge, quien dedicó
muchos años de su vida a inventar una calculadora automática de mesa capaz de
llevar a cabo las complicadas operaciones aritméticas necesarias para la navegación
y la balística. Por desgracia, la máquina que inventó exigía la fabricación de miles
de piezas de precisión; y si bien los científicos actuales creen que podría haber
llegado a funcionar, lo cierto es que el gobierno británico le retiró su apoyo luego
de haber invertido en el proyecto la suma, a la sazón significativa, de 17.000
libras esterlinas. Entretanto, inspirado por la colaboración que le prestó una tal
Lady Lovelace, Babbage llegó a concebir proyectos aun más grandiosos, como el
de una máquina capaz de tabular cualquier función matemática y, en principio,
jugar al ajedrez (McCorduck, 1979, págs. 25-27). Esta “máquina de la diferencia” ,
como dio en llamarse, se basaba en las tablas matemáticas de las diferencias entre
los cuadrados de los números naturales. Utilizaba tarjetas perforadas como las que
se usan actualmente para controlar ciertos telares especiales; había tarjetas de
6. Inteligencia artificial: la herramienta del experto | 163
operación, que dirigían las operaciones a ejecutar, y otras que determinaban las
variables particulares a las que debían aplicarse dichas operaciones (Dorf, 1974).
La máquina era capaz de abordar cualquier problema aritmético, y de dar la res
puesta correcta siempre y cuando se manipularan las perillas apropiadas.
Mientras Babbage procuraba llevar a la práctica sus ambiciosas aspiraciones
' mecánicas, otro matemático inglés, George Boole, de Queens College Cork, estaba
empeñado en una empresa distinta pero igualmente trascendente: discernir las
leyes básicas del pensamiento y cimentarlas sobre los principios de la lógica. A fin
de eliminar las ambigüedades propias del lenguaje natural, que habían dominado la
lógica dejde la época en que Aristóteles estudió el silogismo, Boole empleó un
conjunto de símbolos arbitrarios (a, b, x , y , etc.) para representar los elementos
que componen el pensamiento. “Si lográramos éxito en expresar las proposiciones
lógicas mediante símbolos —sostuvo-, de modo tal que las leyes de sus combina
ciones se fundaran en las leyes de los procesos mentales que dichos símbolos
representan, daríamos hoy un paso adelante hacia el lenguaje filosófico” (citado
en Hilton, 1963, pág. 163). Estos elementos simbólicos podían combinarse o
disociarse mediante operaciones de adición, sustracción o multiplicación, para
formar nuevas expresiones, o concepciones, que incluyeran los mismos elementos.
Y procedimientos de esta índole equivaldrían a una suerte de “álgebra mental” ,
por medio de la cual era posible llevar a cabo el razonamiento en términos abstrac
tos, positivos o negativos, pero no contaminados por alguna asociación con conte
nidos específicos. Boole llamó a estas operaciones las “leyes del pensamiento";
y observó algo de enorme importancia para el futuro: esta lógica constituía un sis
tema de dos valores, verdadero-falso. Cualquier enunciación lógica, sea cual fuere
su grado de complejidad, podía ser expresada ya sea mediante un 1 (que represen
taba “todo” o “verdadero”) o un 0 (que representaba “nada” o “ falso” )- Esta
idea, según la cual todo razonamiento humano era reductible a una serie de dile
mas de “sí” o “no”, demostraría ser esencial para la filosofía y la ciencia del
siglo XX.
Pasó medio siglo antes de que la importancia de Boole fuera finalmente
apreciada por Alfred North Whitehead y Bertrand Russell en sus Principia Mathe-
■matica (1910-13). Como ya he apuntado, el objetivo de esta obra era demostrar
que la matemática tiene sus raíces en las leyes básicas de la lógica. Whitehead
y Russell se apoyaron en gran medida en el formalismo del que fue precursor
Boole, y Russell llegó a declararen su habitual estilo lacónico, que “la matemática
pura fue descubierta por Boole en una obra a la que denominó ‘las leyes del pen
samiento’ ” (citado en Halacy, 1962, pág. 106).
Esta constelación de ideas aportadas por las máquinas de calcular de Babbage,
las leyes del pensamiento de Boole y las decisivas demostraciones d e Whitehead y
Russell fueron a la potre asimiladas por los estudiosos en las décadas de 1930
y 1940, y culminaron en el diseño de las primeras computadoras y, finalmente, en
los primeros programas de los que podía decirse que mostraban inteligencia
164 | La nueva ciencia d é la mente
E l sueño se cumple
Muchos fueron los que allanaron el camino para esta explosión de mediados
de siglo, que dio origen a los acontecimientos de Dartmouth y sus secuelas. Y
entre ellos, tuvo enorme significación la obra de Ciaude Shannon, matemático del
ITM que en 1938 publicó la tesis de maestría posiblemente más importante, y
también más célebre, del siglo: “Análisis simbólico de los circuitos de relé y
conmutación” . En ella Shannon demostró que tales circuitos, como los que apare
cen en un aparato electrónico, podían expresarse mediante ecuaciones semejantes
a las de Boole; vale decir que un sistema dual, de verdadero-falso, era equivalente
a los estados “abierto” y “cerrado” (o “conectado” y “ desconectado”) de un
circuito. Más aun, cualquier operación que pudiera describirse mediante una serie
finita de pasos era materializare mediante esos relés “de conmutación”. La obra
de Shannon sentó las bases para la fabricación de máquinas capaces de ejecutar
tales operaciones de verdad lógica, y además sugirió nuevas formas de diseñar y
simplificar los circuitos. En el plano teórico, dio la pauta de que la programación
de una computadora (al establecer un conjunto de instrucciones codificadas que
debían seguirse en forma minuciosa) tenía que concebirse como un problema de
lógica formal y no como un problema aritmético, idea ésta proveniente de los tra
bajos de Boole. De un solo golpe, Shannon había introducido un tema de interés
puramente académico en el mundo de las máquinas, incluida la incipiente compu
tadora.
Pero las intelecciones de Shannon no se produjeron en un vacío intelectual.
A la sazón, Alian Turing (1936) expuso su idea de que cualquier tarea de cómputo
enunciada explícitamente era realizable por una máquina, siempre y cuando ésta
poseyera un conjunto finito apropiado de instrucciones. Turing demostró que, en
principio, sólo podía existir una clase de computadora (aunque por supuesto,
hubiera muchos modelos, construidos de diversa manera); y comenzó a reflexionar
acerca de las cuestiones centrales vinculadas con la inteligencia artificial, como la
relación entre el pensamiento humano y el de la máquina. Estas inquietudes se
expresaron algo después en la famosa “prueba de Turing” , por la cual se desafia
ba a un escéptico a que distinguiera las respuestas de un sujeto humano de las
dadas por la computadora (véase supra, pág. 33). Vannevar Bush, un ingeniero del
ITM que había sugerido al joven Ciaude Shannon examinar la analogía entre la
teoría de las redes eléctricas y el cálculo proposicional, comenzaba a la sazón a
fabricar máquinas capaces de resolver ecuaciones diferenciales. Y también por esta
época, como ya mencioné, Warren McCulloch y Walter Rtts (1943) desarrollaban
sus nociones acerca de las redes neurales, manifestando concretamente que una
red finita apropiada de neuronas podía ejecutar cualquier cosa que fuera descrip
ta en palabras de una manera exhaustiva e inequívoca; por lo tanto, era dable
concebir al cerebro como una máquina, de un modo mucho más preciso que antes,
y en especial como una máquina de Turing (McCorduck, 1979, pág. 15).
6 . Inteligencia artificial: la herramienta del experto | 165
Puede suponerse que estas opiniones estaban dirigidas a aquellos (por ejem
plo, el círculo de McCulloch) que creían que el secreto de las operaciones de las
computadoras (y del pensamiento en generál) estaba en comprender de qué
manera actúan los circuitos neurales. £1 grupo de Simón y Newell entendía que
esta analogía no era-útil, y que resultaba más provechoso conceptualizar la resolu
ción de problemas en un nivel mucho más macroscópico. Durante 25 años fue esta
concepción “árida” la que prevaleció; como veremos más adelante, en los últimos
años ha ganado apoyo dentro de la comunidad de la 1A un enfoque que presta
más atención a b que se conoce del sistema nervioso.
Al inventar y poner en ejecución su Teórico Lógico, Newell, Shaw y Simón
demostraron que la 1A era una posibilidad, si no una realidad. Todas las afirmacio
nes anteriores en este sentido habían sido meros ademanes indicativos, en tanto
que ahora se habían efectuado dos pruebas decisivas: 1) las computadoras podían
llevar a cabo conductas que, en caso de ser efectuadas por seres humanos, inequí
vocamente se considerarían inteligentes; 2) los pasos que recorrían los programas
en el curso de su demostración de los teoremas guardaban una semejanza nada
trivial con los que seguían los seres humanos para resolver problemas en general.
Pero Newell, Simón y sus colegas pronto estuvieron embarcados en otros
juegos de más envergadura. Su proyecto más ambicioso fue el denominado Resol-
vedor General de Problemas (RGP), cuyos métodos, al menos en principio, podían
utilizarse para cualquier clase de resolución de problemas (Newell y Simón,
6 . inteligencia artificial: la herramienta ael expeno j i b«
1972). El RGP era capaz de efectuar tareas en apariencia tan diversas como la
demostración de teoremas, jugar al ajedrez o resolver acertijos como el de los
misioneros y caníbales, la torre de Hanoi y los diabólicos enigmas de la criptoarit-
mética, en que las letras representan números, y su suma o producto da otras
palabras. Pero el propósito del RGP no era meramente dar con la solución más
eficaz de estos problemas, sino más bien simular los procesos que los seres huma
nos normales emplean para abordarlos. Fue así que una parte importantísima de
esta investigación consistió en recoger protocolos que registraran las introspeccio
nes y señalamientos de los sujetos participantes.
Los métodos utilizados por el RGP son fáciles de describir. En el análisis de
medios y de fines, se comienza por enunciar la forma deseada de solución de un
problema, y se compara luego la situación en que se encuentra el sujeto en un
momento dado con el objetivo final que se persigue. Si ambos coinciden, el
problema ha sido resuelto; caso contrario, el resolvedor (humano o mecánico)
esclarece la diferencia que existe y busca métodos que tiendan a reducir esa dife
rencia entre el punto en que se halla y el punto adonde se encamina.
El arte del RGP consiste en los métodos que emplea para reducir dicha dife
rencia. Se fija una tabla en la que se asocian las metas del sistema con operadores
utilizables para alcanzarlas. Una vez que se ha computado la diferencia entre h
situación actual y la meta, el sistema selecciona un operador asociado con dicht
diferencia y ensaya si es aplicable a la situación vigente. En caso afirmativo, y s
produce un resultado más próximo al estado final buscado, vuelve a repetirse e
mismo operador; si, en cambió, demuestra ser inaplicable, el sistema genera un:
submeta cuyo propósito es reducir la diferencia entre la situación actual y aquell:
en la cual puede aplicarse el operador. Este procedimiento se repite hasta alcanza
la meta, o hasta demostrar que no puede alcanzársela con la información de que s
dispone o con Jos operadores que tiene el programa. -
El RGP presentaba también otras características destinadas a facilitar la resc
lución de problemas. Era posible descomponer el programa en subproblemas aboi
dables de a uno por vez, como también dejar de lado los factores que complicaba:
una cierta situación a fin de establecer un plan de ataque, u omitir ciertos detalle
de un problema. Por ejemplo, si se trataba de resolver un problema del cálcul
proposicional, la máquina podía resolver dejar de lado las diferencias entre le
conectores lógicos y el orden de los símbolos, y sólo tomar en cuenta cuáles era:
estos últimos y de qué manera habían sido agrupados.
A la postre el RGP fue abandonado porque no tenía el grado de generalida
que sus creadores deseaban conferirle y porque el campo de la IA se desplaz
hacia otros rumbos; no obstante, puede considerarse que fue el primer program
que simuló toda una gama de comportamientos simbólicos humanos. Ademá:
desempeñó un papel trascendental dentro de la concepción de Simón y Newe
acerca de la empresa en que estaban embarcados. Según ellos, toda inteligenc;
implica el uso y manipulación de diversos sistemas simbólicos, como los de. .
170 | La nueva ciencia de la mente
rada” de la IA: cobraba sentido suponer que este sistema simbólico fís'
construido por el hombre, realmente resolvía los problemas.
Otra serie de críticas se centraron en algunas diferencias entre los seres hun«i
nos y los programas de computadoras. Por ejemplo, los seres humanos pue,
improvisar atajos o procedimientos heurísticos para resolver algo, en tanto qu? ’
computadora repetirá siempre el mismo proceso a menos que se la programe par
aprender de sus empeños anteriores. Admitiendo esta limitación del.RGP, Nev. .
y Simón se dieron a la tarea de inventar programas capaces de aprender.
programa, por ejemplo incluyendo la palabra “es” en un contexto tal que, en lugar
de designar una ecuación, forme parte de una cláusula subordinada o incidental.
Análogamente, pueden hacerse estragos incorporando la palabra “por” como
parte de una frase del tipo de “por habitante” o “por azar” . A un ser humano
pueden engañarlo ciertos hechos extraños al problema que tal vez le parezcan
pertinentes (por ejemplo en el problema anterior, el costo de la gasolina); la difi
cultad de la computadora radica, en cambio, en que no puede revisar la forma
particular en que ha sido programada para seleccionar el referente Teal de una pala
bra o de un número. Al no tener idea alguna acerca del tema del problema, incurre
en torpes errores, que los seres humanos no cometerían jamás o que en su caso se
considerarían sumamente estúpidos.
La computadora se asemeja a un ser humano al que se le pidiera resolver un
problema algebraico en una lengua extranjera, de la cual sólo conoce unas pocas
palabras: enfrentados con tal enigma, tanto la computadora como el extranjero
se apoyarían en los pocos números que reconocen y harían la mejor conjetura
posible acerca de las operaciones matemáticas que deben ejecutarse con esos
números. Si bien los problemas de que se ocuparon Minsky y sus discípulos abar
caban una gama mucho más amplia que los abordados por el RGP, siempre eran
reformulados como expresiones simbólicas de tipo canónico. No obstante, debe
subrayarse que estos programas, como los de Newell y Simón, funcionaron bien.
La clase de ejercicios que, expresados en lenguaje corriente, atarearon a los escola
res durante generaciones, podían resolverse, pues, mediante un proceso mecánico.
con J oshua Lederberg (un investigador de Stanford que recibió el premio Nobel
por sus trabajos sobre genética), Feigenbaum decidió analizar los datos proceden
tes de un espectrógrafo de masas (Feigenbaum, Buchanan y Lederberg, 1971).
El resultado fue un programa al que se denominó DENDR AL, d estinado a averiguar,
sobre la base de una gran cantidad de datos provenientes del espectrógrafo, cuál
era el compuesto orgánico analizado. Tras procesar los datos pertinentes, el
programa formulaba hipótesis acerca de la estructura molecular de dicha sustancia
y luego las verificaba mediante ulteriores predicciones. El dato de salida consistía
en una lista de posibles compuestos moleculares, ordenados en términos de su
probabilidad decreciente. Los datos obtenidos a partir del DENDRAL pudieron
compararse sin desmedro con los procedentes de químicos especialistas en este
tema (Boden, 1977).
El programa DENDRAL se apartaba en dos aspectos del modelo clásico de
Simón y Newell. En primer lugar,hacía considerable uso del saber acumulado acer
ca de sustancias químicas, basándose en la premisa de que los especialistas poseen
un amplio conocimiento al respecto, y cualquier programa que tuviera el propó
sito de conducirse de manera inteligente debía poseer esos mismos conocimientos
en el mayor grado posible. En segundo lugar, estaba la decisión (aparentemente
contradictoria con la premisa anterior) de no emular la forma en que los seres
humanos resolverían el problema. Lo que le interesaba a Feigenbaum eran los
desempeños de alto vuelo, y no, en particular, copiar la forma en que operaría
un ser humano enfrentado al mismo paquete de informacióh. He aquí uno de los
primeros signos de la aguda división que habría de producirse entre los que aboga
ban por la simulación del comportamiento humano y los que preferían el cultivo de
los desempeños inteligentes por cualesquiera medios..........................
En esa misma década de 1960, otras dos líneas de investigación procuraron
incursionar en un ámbito humano aparentemente escurridizo: el diálogo significa
tivo entre dos personas. Teniendo en cuenta el famoso desafío de Turing (véase
supra, págs. 33-34), era una meta tentadora. Kenneth Colby, un psiquiatra que a la
sazón trabajaba en Stanford, y Joseph Weizenbaum, del ITM, elaboraron progra
mas que simulaban estos diálogos. En el caso de Colby, interesado en los trastor
nos psiquiátricos, el programa daba las respuestas que habría dado una personali
dad paranoide, cuya particular obsesión fueran los miembros de la mafia:
Ambos programas fueron diseñados con suficiente habilidad como para enf
ñar durante un tiempo a un interlocutor inocente de la computadora o a 1
testigo del diálogo que nada supiera acerca del programa. No obstante, los d
inventores admiten que un individuo que conociera el diseño del programa o fue
capaz de efectuar las inferencias correctas, podría fácilmente desenmascarar!
El motivo de ello es que, al igual que el programa STUDENT de Bobrow, est
otros programas no comprenden las palabras utilizadas; simplemente están co:
truidos de modo tal que determinadas palabras claves desencadenan respuesi
fijas. Por ejemplo, el programa ELIZA, elaborado por Weizenbaum, se basa en ti
nicas de comparación de estructuras. Se explora cada oración del texto de ent:
da en búsqueda de palabras claves, como “yo” , “tú” , “igual a” ' y “padre” ; en es
de encontrar alguna de estas palabras, la oración es transformada de acuerdo c
una regla asociada con ella. Si, por el contrario, en el texto de entrada no apare
ninguna de esas palabras claves, ELIZA responde con una fórmula carente
contenido, del tipo de “ ¿POR QUE CREE USTED ESO?” o con alguna referen-
neutra a una observación anterior. Hay otras maliciosas tretas. Por ejemplo, supe
gamos que ante la falta de una frase clave reconocible, se decide volver al tei
anterior: el programa está construido de tal modo que retomará un tema pre
178 | La nueva ciencia de la mente
dido por la palabra “mío”, basándose en la razonable hipótesis de que todos los
temas referidos a algo que el hablante considera “ mío” , probablemente estén
“cargados de significación” para él.
Digamos al pasar (aunque esto no es un mero paréntesis) que si bien Colby
y Weizenbaum desarrollaron sus programas de investigación en forma similar, y al
comienzo colaboraron entre sí, más adelante adoptaron actitudes diametralmente
opuestas respecto de la 1A y se trabaron en acaloradas disputas personales. Al pare
cer, Weizenbaum quiso apartarse de la IA, consternado al comprobar que algunos
miembros de las profesiones asistenciales y de los medios de comunicación social
tomaron sus demostraciones, en sí mismas bastante arbitrarias, como herramien
tas terapéuticas aptas para curar a los seres humanos que padecían perturbacio
nes. En cambio, Colby es un “devoto” , un creyente fiel en las computadoras, que
enriende que éstas tienen un importante papel que cumplir en las investigaciones
acerca de la enfermedad mental y posiblemente también en su tratamiento. Estas
discrepancias tienen hondas raíces y se vinculan con el aspecto humanístico del
uso de las computadoras, tema que ha salido a la palestra repetidamente en los
recientes debates en tomo del valor —y de los valores—de la IA.
-ÉSTA BIEN.
—¿Qué contiene la caja?
-LA PIRAMIDE AZUL Y LA CAJA AZUL.
—¿Qué sostiene a la pirámide?
-L A CAJA. .
—¿Puede ser sostenida una pirámide por un bloque?
-S I.
—Por favor, apile los dos bloques rojos con un cubo verde o con una pirá
mide. ....... — -------- • -
-ESTA BIEN.
—¿Qué cubo está apoyado sobre la mesa?
-E L CUBO VERDE GRANDE QUE SOSTIENE LA PIRAMIDE ROJA.
—¿Hay un bloque grande detrás de una pirámide?
-SI, HAY TRES: UNO ROJO GRANDE, UN CUBO VERDE GRANDE
Y EL AZUL.
—¿Cuándo tomó usted la pirámide verde?
-MIENTRAS APILABA EL CUBO ROJO, EL BLOQUE ROJO
GRANDE Y UN CUBO VERDE GRANDE.
—¿Por qué?
-PARA SACARLO DE SU LUGAR.
—¿Por qué hizo eso?
-PARA DEJAR LIBRE LA PARTE SUPERIOR DEL CUBO ROJO.
—Gracias.
-D E NADA.
(Winograd, 1972, citado en Boden, 1977, págs. 115-22.)
180 | La nueva ciencia de la mente
Hay una palabra que, por más que se busque y busque, rara vez aparece
en la primitiva bibliografía de la IA, y es la palabra “conocimiento”. Ningu
no de ellos cree que haya que conocer nada, piensan que siempre puede
reelaborárselo todo. .. De hecho, para mí 1967 fue un año de viraje, en que
ya había cobrado suficiente vigencia la sensación de que debía presdndirse
de las antiguas ideas acerca de los principios generales... Abogué entonces
en favor de lo que llamé la primacía de los expertos, al par que designaba a
los otros muchachos como “los generalistas”. (Citado en McCorduck, 1979,
págs. 228-9.)
Moses relata las fuertes objeciones que opuso Alien Newell a su enfoque:
Llamó a mi postura “la teoría del gran conmutador"; su idea era qué si
uno tiene a todos estos expertos trabajando para uno y se le presenta, un
182 | La nueva ciencia de la mente
problema, lo único que debe decidir es a cuál de los expertos llamará para
resolverlo. Eso no es IA, como ven ( . . . ) Creo que fue Winograd quien en
definitiva lo hizo-xambiar de idea a Newell. (Citado en McCorduck, 1979,
pág. 229.)
De más vastos alcances todavía fue el ataque que lanzó contra la intelige .i
artificial Hubert Dreyfus, filósofo de orientación íénomenológica de la Univ -s
dad de California en Berkeley, quien en 1972 publicó un libro decisivo: \VHc
Computen Con't Do: A Critique o f ArtificialReason [Lo que las computad . e
no pueden hacer: crítica a la Tazón artificial]. En esta obra, Dreyfus hacía m’ h
hincapié en las diferencias fundamentales entre los seres humanos y las comput:
doras; a diferencia de las computadoras, afirmaba, los humanos poseen una _j;
ciencia periférica, toleran la ambigüedad, su cuerpo organiza y unifica la expr u
cia de los objetos y las impresiones subjetivas, pueden aburrirse, fatigarse o penie
184 | La nueva ciencia de la mente
Aunque las miras actuales han bajado desde el plano de “absurdo y exagerado
optimismo” de la década de 1950, algunos estudiosos han logrado realizaciones
notables, convenciendo así a muchos de los que no pertenecen al campo de la 1A
de que los experimentos que en él se realizan son, por lo menos, interesantes y
deben ser t ornados en serio.
Pluralismos
Minsky ha expuesto también una interesante concepción acerca del modo e"
que opera la mente, que dio origen a propuestas novedosas sobre la forma en qt»v
deben instrumentarse los programas de computadoras. En lugar de creer en i
procesador general simple o en un procesador central, a través del cual deber1''’
pasar la totalidad de la información, o bien en una mente organizada o unificada
que supervisa toda actividad, Minsky considera que la actividad psíquica consis
en múltiples agentes, cada uno de los cuales es un especialista a su manera. P '
acuerdo con esta visión de la “sociedad de mentes” , la mente consiste en varias
docenas de centros de procesamiento o “agentes” capaces de manejar de mane,
simultánea diferentes tipos de conocimientos. Cada uno de los agentes local
tiene una función, a la que se recurre en ciertas circunstancias, y puede acceder
a los otros agentes. Los agentes se comunican emitiendo excitaciones o inhibick
nes en lugar de transmitir expresiones simbólicas. Pueden también censurar ’
información, más o menos como lo haría un superyó freudiano. Según este esque
ma, ciertas partes de la mente conocen ciertas cosas, en tanto que otras conoce.,
cosas acerca de las primeras. De hecho, en esta nueva concepción de la men
desempeña un papel decisivo saber qué agentes pueden conocer o ejecutar deter
minadas cosas (Minsky, 1979,1982).
La idea de encuadre y la metáfora de la “sociedad de mentes” , propuestas p.
Minsky, no son en sí mismas teorías que puedan someterse a una clara verific-
ción científica; más bien debe concebírselas como marcos organizadores (o encua
dres, si se quiere) capaces de conducir a la elaboración de programas más eficac
y que modelen de manera más fidedigna el comportamiento humano. En ese sen+:
do, cabe decir que sus ideas son reacciones contra aquellosenfoques que no toman
en cuenta el conocimiento o las expectativas anteriores, así como contra aquell.
188 | La nueva ciencia de la mente
Comprensión d e l lenguaje
menos ciertas partes de él. Pero muchos de sus críticos entienden que el sentido
que Schank da a la “comprensión” no es legítimo. Repasaré estas críticas cuando
me ocupe del escepticismo general de John Searle acerca de cualquier máquina
capaz de tener una conducta “intencional” . También se ha polemizado en tome
de la caracterización del lenguaje de Schank, quien sostuvo que todo lo que pensa
mos o decimos se reduce a un pequeño grupo de elementos conceptuales básicos
llegó incluso a establecer cuáles eran esos elementos y la forma en que operan, cor
lo cual aparentemente violenta las sutilezas de sentido. Afirma que todos los
verbos empleados en el habla cotidiana se reducen, luego del análisis, a doce accio
nes primitivas (por ejemplo, mover, absorber, aferrar), vinculadas con la manipu
lación, con el movimiento o traslado de objetos, y con las relaciones abstractas y
las ideas. Schank no ofrece ninguna justificación teórica de esta lista, aunque sí
da numerosos ejemplos del modo de analizar los verbos a la luz de estos núcleos
primitivos. Basándose en esos verbos primitivos sería posible, según él, establecer
una comprensión general del lenguaje centrada casi exclusivamente en la semánti
ca, con exclusión de los factores sintácticos.
Las formulaciones lingüísticas de Schank no lograron convencer a quienes
siguen la tradición chomskiana de procesamiento lingüístico. Desde la perspectiva
de estos últimos, Schank creó una serie de mecanismos ad hoc que, si bien resul
tan útiles en ciertas circunstancias limitadas, carecen por completo de principios
que los fundamenten. No hay ningún criterio sistemático para determinar en qué
circunstancias habrá de activarse un libreto particular, ni tampoco ninguna razón
teórica para escoger una conceptualización de un verbo en lugar de otra. Por ejem
plo, ¿por qué analizar el acto de comer como una manera de absorción, en vez de
incluir los movimientos musculares, pensamientos y reacciones del individuo que
come? ¿O por qué, si se trata de acudir al dentista, habrá de invocarse el libreto
de un consultorio médico en lugar de cualquier otro tipo de consultorio u oficina,
o el de un cirujano especialista en afecciones bucales en particular? Para estos
críticos, de nada vale tratar de comprender el lenguaje si se carece de una teoría
válida acerca de su estructura, teoría que abarque sus diversos aspectos, incluida
la sintaxis, y que sea aplicable a cualquier especie de dato de entrada lingüístico
(Dresher y Homstein, 1976).
Por limitados que sean, según algunos observadores, los empeños teóricos de
Schank, el hecho de que sus programas hayan funcionado razonablemente bien
en la tarea que se habían fijado no puede descartarse así como así. Además,
muchos piensan que Schank ha dado en el blanco en cuanto al grado de generali
zación apropiado para la creación de un “sistema de comprensión” . Schank se
centra en unidades de sentido y no. en palabras individuales; emplea las palabras
para recobrar las expectativas más que para armar oraciones, y su doctrina gira
en torno de la semántica más bien que de la sintaxis. Así como los enfoques que
van de lo general a lo particular han contribuido a rejuvenecer la psicología cqgni-
190 | La nueva ciencia de la mente
tiva, las “apuestas” estratégicas de Schank han tenido notable éxito, al menos
hasta ahora
Si bien la perspectiva de contar con un programa que comprenda el lenguaje
natural del mismo modo en que lo hacen los seres humanos parece distante
todavía, ha habido avances uniñcativos en otros aspectos de la competencia en
el dominio del lenguaje natural. Algunos enfoques, como los de William Woods
(1975) y Ross Quillian (1968), han seguido el sendero de la semántica, en tanto
que otros, como los de Mitchell Marcus (1979), prefirieron el camino de la sinta
xis. El programa titulado HEARSAY [en inglés, “de oídas”], de Raj Reddy (Re-
ddy e td ., 1973), aborda la comprensión del habla basándose en diversas especies de
concocimiento —semántico, pragmático, sintáctico, léxico, fonémico y fonético—
y analizando la sefial en una variedad de niveles, desde cada fragmento de sonido
hasta la frase total. Cada fuente de conocimiento revisa las hipótesis generadas por
todas las demás (“expuesta” en un tablero central) y luego formula la “mejor”
conjetura acerca de lo dicho. Este sistema carece por cierto de elegancia o del rigor
de un enfoque con fundamentos teóricos, pero saca partido de la reunión de diver
sos fragmentos de evidencia, esa característica que. tal vez sea propia de la
comprensión del habla en circunstancias que distan de ser las óptimas.
Percepción
El cuarto chino
Searle comienza por señalar que su crítica no está dirigida contra la “versión
débil” de la IA, vale decir, contra la que sostiene meramente que la inteligencia
artificial puede esclarecer los procesos de la conducta humana. No encuentra obje:
tablq, (al menos en este artículo) esa variante de la IA, donde la computadora es
una mera herramienta para el estudio de la mente, permitiendo verificar ciertas
hipótesis de manera rigurosa. Los dardos de Searle están dirigidos contra las
pretensiones de la “versión fuerte” de la IA, aquella que sostiene que una compu
tadora bien programada es comparable a una mente humana, y puede decirse
literalmente que entiende y experimenta otros estados cognitivos. Si bien es cier
to que muy pocos defienden esta posición tan sin reservas como lo declara Searle
al convertirla en el blanco hipotético de sus ataques, la vehemencia con que algu
nos respondieron a sus críticas confirman que dio en el clavo.
El acertijo de Searle
Contraataques
no resulta convincente, porque el sujeto, sin darse cuenta, podría convertirse efec
tivamente en un robot. Por ejemplo, los símbolos del idioma chino podrían llegar
hasta él desde una cámara de televisión montada en el robot, y en tal caso el
robot-Searle parecería estar percibiendo. Análogamente, los símbolos que emitie
ra podrían poner en marcha motores que a su vez movieran los brazos y piernas
del robot, y en tal caso el robot-Searle “actuaría” . En uno y otro caso, el propio
Searle haría todas las manipulaciones formales de símbolos sin saber nada, no
obstante, acerca de lo que estaría sucediendo. En cierto sentido, sería el homúncu
lo del robot, pero permanecería en una total ignorancia respecto del significado de
los caracteres chinos.
Una tercera línea de razonamiento, esta vez vinculada con los grupos de Ber-
keley y del ITM, es la que se sigue en la réplica del simulador del cerebro. El plan
teo de ésta es que un programa puede simular la secuencia de descargas neurona-
les en las sinapsis del cerebro de un hablante del idioma chino dedicado, por
ejemplo, a comprender un relato o a responder preguntas. En tal caso, al asimilar
los relatos, la máquina simula la estructura formal del cerebro real de un chino
en su procesamiento de ellos, y da como producto respuestas en chino. Searle
sostiene que, por más que se llegue a esta aproximación en cuanto al funciona
miento del cerebro, ella no basta para producir la comprensión. Imaginemos, nos
dice, que en lugar de estar en el cuarto un hombre monolingüe barajando símbo
los, ese individuo está equipado con una compleja red de caños para la circulación
de agua, que se conectan mediante válvulas; y cada vez que recibe un símbolo, lo
busca en el programa y determina cuál de las válvulas debe abrir o cerrar. Cada
una de estas conexiones de caños corresponde a una sinapsis en el cerebro de un
chino, y el sistema en su conjunto está montado de tal modo, que, finalmente,
surgen de él respuestas en chino. Ahora bien —puntualiza Searle—, el hombre no
comprende el chino, como no lo comprenden tampoco los caños de agua. El
problema en este caso consiste en que se ha pretendido simular con la máquina
cosas equivocadas en lo tocante al cerebro:
Si (suponemos que) una cantidad cada vez mayor de células del cerebro
fueran reemplazadas por circuitos integrados [chips], programados de'tal
modo de mantener la función de entrada y salida de cada unidad exacta
mente igual a la de la unidad que se reemplaza, con toda probabilidad el
individuo seguiría hablando exactamente como antes, salvo que sus ilocu-
dones dejarían de tener significado. Lo que para nosotros, los observado
res externos, serían sus palabras, para ¿1 no serían sino determinados ruidos
que los circuitos lo obligarían a emitir (pág. 442).
neurofisiológica de las operaciones del cerebro para concretar esos estados inten
cionales. Searle no parece plantear en absoluto la necesidad de un nivel de
representación simbólica,- pese a que ella ha dominado los trabajos de las ciencias
cognitivas en toda su historia (1983b). En la medida en que sus argumentaciones
sean meros ademanes indicativos, sus asertos acerda de la intencionalidad tienen
poca validez; pero en la medida en que sea capaz de especificar lo que quiere decir,
y de demostrar que la intencionalidad no está limitada en principio a los cerebros
orgánicos, habrá abordado un genuino problema científico. A partir de allí, los
investigadores de la inteligencia artificial podrán intentar simular esos mismos
comportamientos que, ajuicio de Searle, sobrepasan sus posibilidades explicativas.
No obstante, bien puede ser que la polémica entre Searle y sus críticos —y
quizá incluso entre los que simpatizan y no simpatizan con la IA- trascienda las
fronteras de la ciencia. En una airada crítica del trabajo de Searle, Douglas Hofs-
tadter, especialista en computadoras, formula la conjetura siguiente:
Sean cuales fueren los méritos de los argumentos de Searle, ellos no ponen
en tela de juicio la legitimidad de la mayoría de los trabajos que actualmente se
desarrollan en el campo de la IA; en verdad, como él mismo lo dice, a Searle no le
provoca ningún remordimiento aceptar la utilidad de la IA como un auxiliar en la
conceptualización y verificación de teorías sobre la inteligencia humana. Pero ya
hemos visto que otros críticos han presentado frente a la IA un desafío más funda
mental. Ejemplo de ello es Joseph Weizenbaum (1976), quien ha formulado cues
tiones éticas vinculadas al hecho de si la IA debe o no incursionar en territorios
6. Inteligencia artificial: la herramienta del experto | 199
hasta ahora reservados estrictamente a los seres humanos, como los de la justicia
o el amor.
Otra corriente de críticos sostienen que los empeños por simular la inteligen
cia humana son perfectamente válidos, pero que hasta ahora la comunidad de la
IA ha utilizado en su mayoría modelos superficiales, que no se aproximan siquiera
al núcleo de los procesos de pensamiento humano. En sus comienzos, esta línea
crítica provino del campo de la lingüística transformacional, por ejemplo con Elan
Dresher, Norbert Hornstein (Dresher y Homstein, 1976) y Kenneth Wexler
(1978). Desde la perspectiva de estos estudiosos, la inteligencia artificial no ha
procurado fundamentarse en los principios profundos del lenguaje (o de cualquier
otra esfera que se pretenda modelar); sólo es un ejercicio práctico de ensayo y
error, y es muy improbable que alguna vez pueda habérselas con algo dotado de
generalidad y de poder explicativo. Por ejemplo, estiman que el programa de
Schank es demasiado vago y carente de especificidad, y que no existen algoritmos
para determinar el “verbo primitivo” o el libreto que guarde especial significación
con respecto a una cadena lingüística dada. Al programa de Winograd, en cambio,
se lo critica por ser harto específico y estar demasiado ligado a un “micromundo” ,
con lo cual se vuelve inaplicable a cualquier espécimen nuevo de lenguaje. Según
esta filosofía “purista", los científicos deberían analizar los sistemas en sí mismos,
estudiar a seres humanos competentes o formular explicaciones teóricas acerca de
la inteligencia o la competencia; en suma, dedicarse a teorías que estén a la altura
de las normas de las ciencias “duras” . Una vez que se comprendan los principios
operativos redes —como está comenzando a suceder en el campo del procesa
miento sintáctico—, tal vez sea comparativamente sencillo programar la computa
dora de modo tal que lleve a cabo estas operaciones. En el próximo capítulo
examinaré esta concepción transformacionalista de los modelos explicativos
aceptables dentro de la ciencia cognitiva.
Lo que aseveran estos críticos es que la IA no ha alcanzado todavía el nivel de
un genuino empeño científico; no es más que una herramienta conveniente, cuyos
principios operativos poseen escaso interés teórico. Estas opiniones han sido repe
tidas recientemente incluso por algunos de los que más han trabajado en el campo
de la IA, como Terry Winograd- antaño el “niño mimado" de los adeptos a la IA,
que ahora evalúa las limitaciones de la comprensión basada en la computadora y se
ha apartado deliberadamente de los experimentos de simulación—. Junto con
Daniel Bobrow, declaran:
MarshaU y Longuet-Higgins nos señalan los lazos cada vez más estrechos entre
la psicología cognitiva experimental y la inteligencia artificial. Los psicólogos pue
den beneficiarse de las cuidadosas simulaciones practicadas por los investigadores
de la IA, y poner así a prueba rigurosamente sus propios modelos, que en el caso
típico son informales; por su parte, los científicos de la IA pueden determinar si
los modelos de comportamiento humano que se plantean como hipótesis son real
mente efectivizados por los sujetos con los cuales especulan. Creo que ciertos
aspectos de la psicología y ciertos aspectos de la ciencia de la computadora se
fundirán simplemente en una disciplina única en el futuro, o, como sugerí en el
capítulo anterior, compondrán el núcleo central de una nueva ciencia cognitiva.
Desde luego, bien puede suceder que ciertas áreas de la ciencia de la computa
dora y de la psicología no tomen parte en esta fusión; y no sería desacertado que
así ocurriese. Debe descartarse la'idea de que si la inteligencia artificial es incapaz
de manejar todas las cuestiones psicológicas (o todas las filosóficas), también es
incapaz de manejar cualquiera de ellas. Análogamente, así como no hay razones
para pensar que los seres humanos son totalmente idénticos a las computadoras,
tampoco las hay para negar que existen semejanzas o paralelismos útiles entre
estas dos entidades (potencialmente) pensantes.
Sea como fuere, es imposible soslayar en forma permanente el problema del
grado efectivo de similitud entre los seres humanos y las computadoras. Uno de
los principales hallazgos recientes de la IA es que la computadora serial digital de
von Neumann es, en múltiples aspectos, un modelo inapropiado de la cognición
humana. En la medida en que este hallazgo sea corroborado —y gran parte de las
investigaciones a las que aludiremos más adelante en este libro pueden citarse
como pruebas en favor de ello-, se habrá confirmado la paradoja computacional.
La IA ha demostrado que la computadora puede ser una herramienta provechosa
para el estudio de la cognición y como modelo razonable de determinados proce
sos del pensar humano; pero sigue vigente la cuestión de si constituye el mejor
modelo de los procesos más importantes.
Por más que la inteligencia artificial y la psicología cognitiva se amalgamen
como componentes centrales de la nueva ciencia cognitiva, por sí solas no podrán
conformar este campo. La filosofía continuará siendo una fuente dé importantes
preguntas, una reserva de reflexiones inestimables acerca de tales preguntas y un
valioso patrón crítico respecto de las prácticas de la ciencia cognitiva. Pero hay
6. Inteligencia artificial: la herramienta del experto | 203
Oraciones enigmáticas
Una de las frases más famosas de la ciencia del siglo XX carece de sentido a
primera vista: me refiero al oxímoron de Noam Chomsky, “Ideas verdes incoloras
duermen furiosamente” [Colorless green ideas sleep fiiriously], Todos sabemos
que las ideas no tienen color, que las ideas no duermen, que no es posible que algo
sea simultáneamente verde e incoloro . . . ¿y qué quiere decir que una entidad
cualquiera “duerme furiosamente”?
Sin embargo, cierto sentido puede extraérsele a esta oración. Por cierto, resul
ta más clara que ésta: “Incoloras furiosamente verdes ideas duermen”, o cualquier
otra combinación aleatoria de esas cinco palabras. En la oración de Chomsky, se
sabe que está enunciando algo acerca de las ideas; y se percibe que traza un
contraste entre un aparente estado de apatía o inactividad, y otro más enérgico
y colorido. Incluso puede hacerse de esta oración una lectura figurativa.
Es imaginable el efecto revolucionario que tuvieron estas nociones en aparien
cia inocuas, propuestas por Noam Chomsky en su monografía de 1957, Syrtíactic
Structures.
El hecho de que tengamos claras intuiciones al enfrentamos con frases sin
sentido aparente, del tipo de “Ideas verdes incoloras duermen furiosamente”
(o como “Tiraba briso y los ranurantes remoleos girriaban y artimañaban” [Twas
briliig and the slithy topes did gyre and gimble]) es la base de las contribuciones
centrales de Chomsky a.la lingüística, y, en tal sentido, a la ciencia cognitiva en
sentido amplio. Con su monografía y los numerosos escritos que siguieron,
Chomsky logró llamar la atención hacia ciertas propiedades de las oraciones de
una lengua que todos sus hablantes normales conocen de manera intuitiva, pero
7. Lingüística: la búsqueda de autonomía | 205
que derivan de una comprensión más profunda del lenguaje, cuyas propiedades
pueden ser explícitamente conocidas sólo para el lingüista.
Chomsky ofreció una explicación convincente acerca de las diferencias entre
oraciones en apariencia tan semejantes entre sí como las siguientes: "John is easy
to please" [“John es fácil de complacer” ] (donde John es el receptor del acto
complaciente), versus “John is eager to please" [“John está ansioso por compla
cer”] (donde John es el que efectúa el acto complaciente). O estas otras: "Ted
persuaded John to leam" [“Ted persuadió a John para que aprendiera”] (donde
el que va a aprender es John), versus “Tedpromised John toleam " [“Ted le pro
metió a John aprender”] (donde el que va a aprender es Ted). Chomsky se refirió
a oraciones cuyo significado se conserva aunque cambie la ubicación de sus tér
minos principales. (“The cat chased the mouse" versus “The mouse was chased
by the cat" [“El gato atrapó al ratón” , versus “El ratón fue atrapado por el
gato” ), a diferencia de otros pares de oraciones en las que no se puede invertir las
cláusulas sin modificar el significado (“Many men readfew books" versus “Few
books are read by many men") [“Muchos hombres leen pocos libros” , versus
“Pocos libros son leídos por muchos hombres” ]. Discriminó y postuló los meca
nismos que subyacen a la capacidad humana para detectar y desentrañar las ambi
güedades contenidas en oraciones como éstas: “Flying planes can be dangerous"
[puede interpretarse “Los aeroplanos que vuelan pueden ser peligrosos” , o bien
“Volar en aeroplano puede ser peligroso” ]; “The shooting o f the hunters distur-
bed m e" [puede interpretarse “Me perturbaron los disparos de los cazadores” ,
o bien “Me perturbó la matanza de los cazadores” ]; "Ididn'tshootJohnbecause
Ilik e him" [puede interpretarse “No le disparé a John porque le tengo simpatía” ,
o bien “No despedí a John porque le tengo simpatía” ]. Y estableció que debía
estudiarse la diferencia entre oraciones que parecen gramaticalmente aceptables,
como “John seemed to each o f the men to like the other" [“A cada uno de los
hombres les pareció que John simpatizaba con el otro"], por oposición a otras,
similares en su superficie, pero que presuntamente violan alguna norma lingüís
tica: "John seems to the men to like each other" [“ A los hombres les parece que
John simpatiza mutuamente con cada cual” ]. En inglés podemos decir "We like
each other" [“Cada uno de nosotros simpatiza con el otro” ], pero no podemos
decir “We expect John to like each other" [“Esperamos que John simpatice
mutuamente” ]; más áun, ni siquiera estamos seguros de que esto último pudiera
significar algo (Marshall, 1981).
Chomsky no fue el único en vislumbrar que los seres humanos poseen deter
minadas intuiciones acerca de oraciones como éstas. LewisCarToll explotó un saber
similar en su Jabberwocky. Y un influyente lingüista de comienzos de este siglo,
Edward Sapir (1921), ya había señalado muchas de las mismas relaciones entre
oraciones que más tarde ocuparían a Chomsky. Pero éste superó a todos sus ante
cesores, incluido un lingüista tan perspicaz como Sapirfporque se propuso estable
cer las reglas que permiten a los individuos formular, o generar, todas las oracio-
206 | > La nueva ciencia de la mente 7. Lingüística: la búsqueda de autonomía | 20
nes correctas que hemos mencionado; saber que son correctas y qué significan; y Estos presupuestos operativos acerca de la autonomía lingüística (la autono
diferenciar las oraciones que transgreden estas reglas y son por lo tanto agramati mía de la sintaxis con referencia a otros aspectos del lenguaje, y la autonom.
cales, aunque no necesariamente carentes de sentido. Para hacer todo esto, el de la lingüística con referencia a otros aspectos de la ciencia cognitiva) fueron e~
hablante de una lengua debe poseer, en algún nivel, un conjunto detallado de general auspiciosos para el rápido desarrollo de la lingüística como ciencia; no obs
reglas o procedimientos que le indiquen en qué lugares determinados, dentro de tante, sigue en pie el problema de si dichos supuestos pueden sustentarse, si es.
una enunciación o emisión, pueden aparecer las distintas partes del habla; o sea, supuestos de autonomía se justifican verdaderamente. Volveré sobre estas cue-
esas reglas deben captar las intuiciones de los hablantes nativos acerca de las rela tiones en la sección final de este capítulo, luego de reseñar los principales hallaz
ciones que prevalecen dentro de las oraciones y entre éstas. Al establecer que tales gos de Chomsky, la historia de este campo de estudio antes de él, y algunas l
reglas constituían el objetivo expreso del estudio del lenguaje (o más precisamen las cuestiones que actualmente se debaten en la ciencia del lenguaje.
te, de la sintaxis) y desarrollar métodos que apuntaban a ello, Chomsky consiguió Antes de introducirnos en el meollo de las contribuciones de Chomsky,
que su obra se destacara inmediatamente con respecto a las de otros estudiosos del conviene decir unas palabras acerca del eje en torno del cual gira este capítul
lenguaje. Y su convicción más general de que los diversos dominios de la mente En otros capítulos nos ocupamos de la obra de muchos estudiosos, mientras q'
(como el lenguaje) operan según reglas o principios que pueden averiguarse y en éste hemos prestado atención exclusiva a un solo individuo. En parte éste es un
enunciarse formalmente constituye su principal desafío a la ciencia cognitiva con artificio expositivo, una manera de presentar las ideas principales de la lingü».
temporánea. tica moderna (a menudo complicadas) en la forma más accesible; pero de'
En su obra Syntactic Stmctures Chomsky se fijó por primera vez una serie añadirse que en ninguna otra ciencia cognitiva contemporánea ha sido tan decisi
de objetivos y describió luego la clase de gramática que parecía necesaria para va e irreemplazable la obra de un único individuo. No es exagerado afirmar que
establecer las regularidades apropiadas, en la lengua inglesa o en cualquier otra. historia de la lingüística moderna es la historia de las ideas de Chomsky y de
En lugar de contemplar los datos ofrecidos por el lenguaje y tratar de discernir variadas reacciones que la comunidad científica mostró frente a ella.
regularidades a partir de las locuciones empíricamente.observadas, como lo habían
hecho típicamente sus antecesores, Chomsky insistió en que los principios no
se obtendrían jamás mediante el estudio de las locuciones, sino que era indis £ / enfoque de Chomsky
pensable operar en forma deductiva. Debía esclarecerse qué clase de sistema
es el lenguaje, más o menos como se resuelve el contenido de una rama particular A fin de alcanzar su ambiciosa meta, Chomsky debía demostrar ante todo q j
de la matemática; y las conclusiones alcanzadas tendrían que expresarse en un los métodos actuales para el análisis de la sintaxis y la justificación de las orar -
sistema formal. Un análisis de esta índole permitiría postular las reglas que dan nes aceptables no son inoperantes. Con una formulación precisa, pero inadecuada,
cuenta de la producción de cualquier oración gramatical concebible (cuyo número de su conclusión inaceptable, podía demostrarse por qué dicha formulación a
es, desde luego, infinito), pero a la vez, dichas reglas no deben “generar” ninguna inadecuada, y en el curso de este proceso obtener una comprensión más profur "i
oración incorrecta o agramatical. Una vez establecido dicho sistema, se pasaría al de los datos lingüísticos que en vano se procuraba explicar. Chomsky procedió a
examen de las locuciones particulares para determinar si en verdad podían ser demostrar que en principio, el método teóricamente más admisible para la gene
adecuadamente generadas siguiendo las reglas del sistema lingüístico. ción de oraciones no era operativo. Para empezar, partió de una gramática de e -
Al embarcarse en este programa, Chomsky partió de dos premisas simplifi- dos finitos, una suerte de máquina con un número finito de estados internos, ouq
'cadoras importantes. Una de ellas fue que la sintaxis podía estudiarse en forma genera oraciones de la manera siguiente: a partir de un estado inicial único, <a
independiente de otros aspectos del lenguaje; si la sintaxis estuviera inextricable máquina pasa a un segundo estado produciendo la primera palabra de una orac.'
mente unida a esos otros aspectos (por ejemplo, al significado, o a la utilidad de la luego, emitiendo una palabra en cada etapa, pasa de un estado a otro ha'ta
comunicación), no sería posible discernir las leyes que la rigen. La segunda pre alcanzar el estado final, en el cual ha sido generada una oración completa. Choi.«s-
misa, estrechamente ligada a la anterior y también tácita, era que la disciplina de ky mostró que estas gramáticas de estados finitos son, por naturaleza, incap :s
la lingüística podía proceder de manera independiente de otras esferas de la cien de representar las propiedades recursivas de las construcciones de la lengua ingina;
cia cognitiva; también en este caso, si el estudio del lenguaje estuviera integralmen vale decir que por su propia índole una gramática de estado finito es incapaz Je
te ligado al de otras áreas de la cognición humana (a otros “órganos mentales” , generar oraciones en las que una cláusula está inserta en otra o depende de c i.
como más tarde los denommaría Chomsky), el avance en este sentido sería ünpo- Al par que excluye simultáneamente las concatenaciofies o cadenas que con'-a-
sible, o bien mortalmente lento. dicen esta dependencia.
208 J La nueva ciencia de la mente
Tomemos como ejemplo la siguiente oración: “El hombre que dijo que nos
ayudaría llega hoy”. Las gramáticas de estados finitos son incapaces de captar
qué nexo hay entre “hombre” y “llega” , y que abarca la cláusula subordinada
intermedia. Además, como su propio nombre lo indica, estas gramáticas son inca
paces de manejar estructuras lingüísticas que pueden reiterarse indefinidamente,
como la inserción de una cláusula en otra (“El chico al cual la niña a la cual el
perro.. . ” , etc.). Para un oyente cualquiera, estas oraciones se vuelven muy pronto
insoportables; pero estrictamente hablando ellas son gramaticales, y cualquier
gramática debe ser capaz de dar cuenta de ellas o de generarlas. En el plano más
general,'la lengua inglesa (y cualquier otra) no opera introduciendo una a una
cada palabra e indicando luego qué otras palabras siguen “hacia la derecha” ; opera
en un nivel más alto de abstracción, de modo tal que ciertos elementos, en cier
tas circunstancias, pueden ser introducidos totalmente dentro de otros elementos.
Así pues, Chomsky aducía con respecto al lenguaje precisamente lo mismo que
Karl Lashley había aducido acerca del comportamiento serial en todas sus mani
festaciones. - <¡ -.............
Chomsky demostró también la inadmisibilidad (aunque no la total imposibi
lidad) de una segunda clase de gramática, la gramática de estructura de frase
(denominada también “análisis de los constituyentes inmediatos”). En este caso el
lingüista parte de una serie inicial de cadenas y de un conjunto finito de estruc
turas de frases o “reglas de escritura”, según las cuales una frase puede ser reescrita
en otra forma admisible. Chomsky mostró que este sistema de estructura de frases
sólo con gran dificultad puede originar ciertas oraciones, y es incapaz de captar o
de explicar muchas de las regularidades que cualquier hablante de la lengua apre
cia. Asi, no puede explicar la diferente estructura de “Whatareyou looking for?"
[“ ¿Qué estás buscando?”] y de “What are you runningfor?" [“ ¿Para qué comes?”]
(Lees, 1957, pág. 386); y tampoco la ambigüedad de una oración como "The
teacher's marks are very low" [“ Las calificaciones del maestro son muy bajas”,
donde la ambigüedad reside en saber si se trata de las calificaciones que el maestro
ha recibido o ha otorgado). Y no hay manera de mostrar la estrecha semejanza que
guardan entre sí "John hit Bill" [“John golpeó a Bill”] y "Bill is hit by John"
[“Bill fue golpeado por John”]. Según Chomsky, mediante una gramática de
estructura de frase, tampoco es posible generar oraciones que implican la combi
nación de dos cláusulas o proposiciones paralelas; concretamente, dichas gramá
ticas no brindan ningún mecanismo para combinar oraciones del tipo de “La esce
na de la película se desarrollaba en Chicago” y “La escena de la obra dramática se
desarrollaba en Chicago” , en una oración única como “La escena déla película y
de la obra dramática se desarrollaba en Clúcago” . En términos más generales, la
gramática de estructura de frase sólo puede transcribirse pagando como precio
varias reformulaciones de amplios segmentos de la gramática. Como puntualiza
el lingüista Robert Lees: “Si se permiten estas repeticiones carentes de economía,
la gramática no logra establecer la semiidentidad estructural entre las partes que
7. Lingüística: la búsqueda de autonomía | 209
deben repetirse” (1957, pág. 387). En líneas más generales, si bien es concebible
describir la lengua inglesa mediante una gramática de estructura de frase, dicha
descripción sería tan engorrosa y compleja que revestiría escaso interés.
Así pues, los modelos más admisibles para la generación de oraciones grama
ticales probaron ser inadecuados: las gramáticas de estados finitos, porque es
imposible generar palabra por palabra incontables expresiones lingüísticas signi
ficativas; y las gramáticas de estructura de frase, porque si se atiende únicamente
al modo en que la frase está construida, se pasan por alto regularidades importan
tes del lenguaje. Por estos motivos Chomsky creyó necesario introducir un nivel
de estructura lingüística que superara estas dificultades y a la vez pernútiera dar
cuenta de toda la amplia gama de oraciones de la lengua;;;
Inspirado en parte por su maestro Zellig Harris (1952), Chosmky descubrió
así el nivel del análisis transformacional. En una gramática transfoimacional,
afirmó, se postulan una serie de reglas mediante las cuales las oraciones pueden
relacionarse entre sí, de tal modo que una oración (o, más exactamente, la repre
sentación abstracta de una oración) puede convertirse o transformarse en otra.
En este sentido, una gramática generativa es un sistema de reglas formalizado con
precisión matemática: sin apoyarse en ninguna información que no esté represen
tada expresamente en él, el sistema genera las oraciones gramaticales de la lengua
que describe o caracteriza, y asigna a cada cual una descripción estructural o análi
sis gramatical. '
El método de la gramática transformacional, tal como fue descripto por
Chomsky en su monografía de 1957 (señalemos antes de seguir que en los años
transcurridos desde entonces el sistema fue modificado varias veces), opera más o
menos así: A partir de reglas de estructura de frase, se generan únicamente los
núcleos oracionales u oraciones básicas [kemel sentences], las cuales son enuncia
ciones breves en voz activa. Estas se generan siguiendo una serie de instrucciones
para construir cadenas; por ejemplo: 1) Oración (O) *> Frase Nominal (FN) + Frase
Verbal (FV); 2) Frase Nominal = T + TV; 3) T *■ el; 4) N = libro, grabado, etc.;
5) Frase Verbal (FV) = Verbo + Frase Nominal (FN); 6) Verbo = muestra, revela,
etc. A partir de un único símbolo O, y mediante una serie de reglas perfectamente
especificadas, es posible generar una oración básica del tipo de “ El libro muestra
el grabado” . Y todas las oraciones gramaticales de la lengua pueden generarse
transformando estas oraciones o estructuras básicas.
Las transformaciones son un conjunto algorítmico de procedimientos que
siguen un orden preestablecido y permiten convertir una cadena lingüística en
otra. Así, posibilitan transformar una oración en voz activa en una oración en voz
pasiva, una afirmación en una negación o interrogación. Según este análisis,
"What areyou lookingfor?" [“ ¿Qué estás buscando?”] puede describirse como la
transformación interrogativa correspondiente al “qué” de “Yon are looking fo r
it" [“Tú estás buscando algo”]. Asimismo, ‘‘What are you running for?" [“ ¿Para
qué corres?” ] es la transformación interrogativa correspondiente al “para qué” de
21 0 | La nueva ciencia de la mente 7. Lingüistica: la búsqueda de autonomía | 21
“You arenmning” [“Tú corres” ]. Las transformaciones ponen al descubierto los análisis lingüístico. Otros estudiosos habían señalado las limitaciones de los mode
nexos que hay entre oraciones del tipo de “The boy kissed the girl” [“El clúco los vigentes, como el de la teoría de los estados finitos o el de la estructura c
besó a la niña” ] y “Jhe girl was kissed by the boy” [“La niña fue besada por el frase, pero Chomsky probó de hecho la imposibilidad del primero y la esencr'
chico” ]; asi como las diferencias profundas entre ordenamientos sintácticos super insuficiencia del segundo. Y si bien su maestro Zellig Harris se había referido ya
ficialmente semejantes, como “John is eager to pléase" [“John está ansioso por a las reglas transformacionales que podían ligar entre sí las oraciones, Chomsky r.
complacer” ] y “John iseasy to please” [“John es fácil de complacer” ], y el hecho sólo reafirmó la existencia de tales reglas sino que además aseveró que debi
de que una frase del tipo de ‘The shooting o f the hunters " sea ambigua, ya que existir un nivel aparte, el transformacional, y postuló los mecanismos que rigen
hay dos historias transformacionales diferentes que pueden dar cuenta de ella: las transformaciones obligatorias y las optativas.
una en que son los cazadores los que disparan, y otra en que ellos reciben los dis Chomsky entendía la labor del lingüista de una manera distinta que sus ante
paros. cesores. Su idea de la “generación gramatical” se basaba en la concepción de un
Todas estas transformaciones dependen de la estructura; vale decir, no operan autómata, una máquina en sentido abstracto, que genera simplemente cadena
sobre palabras sueltas ni sobre series de palabras de extensión arbitraria. Más bien, lingüísticas basándose en reglas que le han sido incorporadas (programadas). I
las transformaciones operan sobre las cadenas (de representaciones abstractas de gramática resultante es neutral, igualmente válida como descripción de la produc
oraciones) después de que .estas cadenas han sido analizadas para determinar sus ción o de la comprensión lingüística. A todas luces, Chomsky era un vástago de L
categorías y constituyentes sintácticos apropiados (o estructuras de frase), los nueva era inaugurada por Wiener, von Neumann, Turing y Shannon; pero no
que determinan cuándo y dónde se han de aplicar las transformaciones. Chomsky menos claro que algunas de sus' ideas concretas acerca del funcionamiento del
atribuía gran valor a la simplicidad formal en la selección de la descripción sintác lenguaje contradecían rotundamente las prevalecientes en la teoría de la informa
tica apropiada, y por ello la gramática transformacional desplazó a la gramática ción.
de estructura de frase. Si bien es cierto que todas las oraciones de la lengua pueden Además, Chomsky caracterizó la tarea del lingüista más explícitamente que
en principio ser generadas por una gramática que sólo conste de reglas de estruc sus predecesores. Dedicó gran atención al problema teórico de cómo se elige u,,
tura de frase, es natural que se prefiera la combinación de una regla simple de modelo lingüístico en lugar de otro. Estableció los criterios formales de una teor
estructura de frase con una regla transformacional simple, y no una gran cantidad adecuada o suficiente de la lingüística, sugiriendo (y demostrando) cómo podían
de reglas de estructura de frase engorrosas y difíciles de orquestar. alcanzarse tales criterios. Asimismo, expuso un conjunto ordenado de “patronea
(Para evitar malentendidos posteriores, me adelantaré un poco a mi exposi de criterios de adecuación” : la adecuación observacional, mediante la cual !
ción y añadiré que en lá época en que Chomsky escribió esto, no se había aprecia gramática describe correctamente los datos lingüísticos observados; la adecuador
do aún que la transformación era un expediente formal sumamente poderoso, descriptiva, mediante la cual da cuenta, además, de la competencia intrínseca dei
del que podía hacerse abuso para rescatar un análisis que, en verdad, no se acomo hablante, de su conocimiento internalizado; y la adecuación explicativa, por .
daba bien a los datos lingüísticos. A fin de contrarrestar éste y otros problemas, a cual el analista descubre los principios en que se apoya una gramática óptima par'
partir de entonces surgió un movimiento tendiente a reducir en forma radical, el lenguaje. Una teoría que exhibe adecuación explicativa puede explicar por que
o aun a eliminar, el componente transformacional. Además, varios lingüistas los individuos han construido la gramática que construyeron, y qué clase de cap:
prominentes han vuelto a adherir al enfoque de la estructura de frase.) cidades necesitaron para alcanzar su competencia lingüística. Nunca hasta er
El enfoque transformacional fue a todas luces innovador, aunque no es fácil tonces, en los escritos de los lingüistas interesados en la gramática, se había alcan
indicar con exactitud en qué aspectos la obra de Chomsky dejó a la zaga a la de zado un grado tal de sutileza teórica.. . y de atrevimiento.
sus contemporáneos. Por cierto, el anhelo de establecer una gramática completa
para la lengua había motivado a otros colegas suyos, y el foco puesto en la sinta
xis, con la relativa exclusión de la fonología y la semántica, caracterizó también La difusión de Ias "ideas verdes"
gran parte de los trabajos que a la sazón se Llevaban a cabo. Chomsky examinó
la interacción del nivel sintáctico con el fonológico y el semántico, pero durante Librado exclusivamente a sí mismo, el libro de Chomsky, demasiado distan
varios años centró sus energías analíticas en el primero (véase, sin embargo, te del resto de este campo de estudios, habría perecido sin fructificar. Nadie .
Chomsky y Halle, 1968). Por lo demás, Chomsky abordó esta tarea con una serie interesó por publicar su voluminosa tesis doctoral, The Lógical Sitructure o f L ir ■
dad, un arsenal de herramientas lógicas y matemáticas y una argumentación tan guistic Theory [La estructura lógica de la teoría lingüística] (1955), en la ’cuai
sutil y concluyente, como muy pocas veces había ocurrido hasta entonces en el enunciaba en detalle las demostraciones formales. Su monografía inicial, Syntact.
212 | La nueva ciencia de la mente
Structures, sólo fue publicada por la pequeña casa editora holandesa Mouton lue
go de la calurosa recomendación de Román Jakobson, el lingüista más distinguido
de la hora. Aun así, esa monografía habría permanecido en la oscuridad, al menos
durante algunos años, de no ser por una pormenorizada y muy positiva reseña que
apareció en la influyente revista Language, cuyo autor fue el ex discípulo y enton
ces colaborador de Chomsky, Robert Lees (1957).
En su reseña, Lees no dejaba lugar a dudas en cuanto a que el pequeño libro
de Chomsky revolucionaría la lingüística; oponía “el estadio precientífico de reu
nión y clasificación de datos interesantes” a una disciplina científica “caracteri
zada en esencia por la incorporación de construcciones abstractas en las teorías,
y la convalidación de estas últimas mediante la verificación de su poder predic-
tivo” (1957, pág. 376). Desempeñando con respecto a Chomsky el mismo papel
que Huxley desempeñó con Darwin, Lees aseveraba que “ciertos campos del saber
han alcanzado una etapa de desarrollo tan avanzado que su problema fundamental
puede enunciarse muy sucintamente, y su estructura está tan bien comprendida
que podemos empezar a construir ya teorías axiomáticas de manera de explici-
tar en forma rigurosa cuál es su contenido y qué significa éste” (pág. 377). En opi
nión de Lees, el libro de Chomsky permitiría a la lingüística cruzar los límites que
separan a una pre-ciencia descriptiva de una ciencia axiomática;
Vemos que, según Lees, Syntactic Structures fue una de las primeras tentati
vas serias de construir una teoría comprehensiva del lenguaje; pero, como declara
Frederic Newmeyer en su historia, por lo demás muy útil, acerca de esta época,
“en verdad el tono de su reseña dejaba bien en claro que era para él la única tenta
tiva seria y, además, totalmente exitosa” (1980, pág. 19).
Al anoticiarse de la obra de Chomsky, también otros lingüistas percibieron su
fuerza y su originalidad. Uno de los más destacados, C.F. Voegelin, declaró en
otra reseña que aun cuando Syntactic Structures sólo hubiera logrado una parte
7. Lingüistica: la búsqueda de autonomía | 213
Chomsky, por el contrario, entendía que el lenguaje era una abstracción, una capa
cidad de la que sólo se podía tener un atisbo impuro en las realizaciones efectivas
de los sujetos parlantes. En armonía con sus inclinaciones formalistas, Chomsky
aseveraba que los lingüistas debían centrarse en esta forma idealizada, virtualmen
te platónica, dejando de lado los errores, pausas, deslices de la memoria, etc., que
se asocian con el habla del mundo real. Tanto por su énfasis en la sintaxis pura
como por su anhelo de estudiar el lenguaje como forma ideal, Chomsky estaba
dramáticamente enfrentado con el conductismo de su época.
Una descripción crítica de su libro debe mostrar que en una lectura literal
(donde los términos del sistema descriptivo guardan cierta semejanza con los
significados técnicos que dan las definiciones de Skinner), el libro no abarca
casi aspecto alguno de la conducta lingüística; en tanto que una lectura
metafórica, no es más científico que todos los restantes enfoques tradiciona-,
les de este tema, y en cambio es con frecuencia mucho menos claro y cui
dadoso ( 1964a, pág. 552).
sentido en que lo era la gramática de los estados finitos. Era preciso adoptar una
perspectiva psicológica totalmente nueva para dar cuenta de esa forma tan rápida,
y relativamente libre de errores, en que los niños adquieren el lenguaje pese a la
“pobreza de estímulos” circundante, a la cantidad comparativamente pequeña de
locuciones (a menudo incompletas o equivocadas) que se encuentran en su vida
cotidiana.
Con este ensayo Chomsky dio un gran paso adelante en su carrera pública.
Dejó de ser simplemente un lingüista que escribía para un pequeño grupo de cole
gas acerca de los recónditos detalles de la sintaxis, y se reveló como un cogniti-
vista a carta cabal, interesado en múltiples dimensiones de la mente y dispuesto a
defender en forma resuelta sus creencias. (El hecho de que Skinner no respondiera
jamás públicamente a su reseña fue, para muchos investigadores, la señal de la
bancarrota teórica de la posición conductista.) Y en los años posteriores a esta
reseña, Chomsky puso en claro otros de sus temas científicos. El lenguaje ofrecía,
según él, el mejor modelo para la conceptualización y estudio de los procesos de
pensamiento, y debía en verdad considerárselo parte de una psicología reformu
lada. Tanto el lenguaje como el resto de la psicología debían contener rigor
formal, postular modelos abstractos y perseguir los principios de la adecuación
explicativa. Para Chomsky era absurdo establecer principios generales de manera
informal, como los propugnados por Skinner y muchos otros psicólogos. Paulati
namente fue impugnando la difundida creencia en facultades muy generales y
amplias de la mente, como las del aprendizaje, la generalización del estímulo, etc.
(En esta evolución reflejó, si es que no anticipó, cambios similares que estaban
produciéndose en los ámbitos de la psicología y en la inteligencia artificial.) Llegó .
a concebir la mente como una serie de órganos (o “módulos” ) relativamente inde
pendientes entre sí, cada uno de los cuales tenía sus propias reglas de operación
y desarrollo así como medios preestablecidos para interactuar con los otros “órga
nos”. Esto constituyó una poderosa afirmación de la autonomía del lenguaje
como órgano y (esto no es casual) también de la lingüística como disciplina. A
esta propuesta del carácter modular se le sumaba la adhesión al mentalismo, o
sea, a la existencia en la mente de estructuras abstractas que posibilitan el cono
cimiento. Y había también una vuelta al innatismo, la creencia de que gran parte
de nuestro conocimiento es universal e innato y de que sin necesidad de instruc
ción, el ser humano, por el solo hecho de serlo, tiene acceso a él. Estas ideas se
apartaban tanto de las sostenidas por las ciencias humanas de la época como las
iniciales postulaciones chomskianas en el área de la lingüística, y generarían aun
más controversias que las contenidas en Syntactíc Structures.
El desafío de Chomsky a la lingüística tradicional se puso de relieve con todo
7. Lingüística: la búsqueda de autonomía | 217
dones intuitivas entre las oraciones, con miras a generar un sistema de reglas ^ue
diera cuenta de todas las oraciones correctas del lenguaje (pero sólo de el ).
Como dijo Freud al referirse a su descubrimiento del inconsciente a través de la
“vía regia” de los sueños, sólo una vez en la vida se le ocurren a uno ideas ct,..io
ésta.
una “f e l latín, el griego y el sánscrito con frecuencia tenían una “p” . Para expli
car esta relación, postuló un “cambio sonoro” cíclico en la prehistoria de las len
guas germánicas, según el cual la consonante oclusiva sorda (o no aspirada) se con
vierte en aspirada (así, la “p” se convierte en “f”)..-No obstante, la sistematiza
ción no fue completa, y Grimm y sus colaboradores no dejaron de indicar las
excepciones a esas reglas (Bolinger, 1968).
Los neogramáticos
En las décadas de 1860 y 1870, más o menos al estilo de lo que sucedió con
el círculo chomskiano un siglo después, un grupo de jóvenes rebeldes denomi
nados los Junggrammatiker (o neogramáticos) trataron de poner orden en esta
situación. No satisfechos con una mera recopilación o taxonomía de regularidades,
del tipo de las que buscaban Grimm y sus colegas, los neogramáticos sostuvieron
que las leyes del cambio fonémico no admiten excepciones. En 1879, Hermann
Paul afirmó: “Toda ley fonémica opera con una necesidad absoluta: admite tan
pocas excepciones como una ley química o física” (citado en Brew, 1968, pág.
177). Cualquier excepción aparente a estas leyes debía explicarse por referencia
a otras leyes, y existía poca tolerancia de la teoría por'la teoría misma. Los neo-
gramáticos H. Osthoff y K. Brugmann declararon:
La escuela de Praga
lenguas, señalando tanto sus similitudes como sus diferencias con las lenguas clá
sicas. Luego de estudiar el tagalo, Bloomfield pasó al malayo polinésico y al algon-
quiano, estableciendo en cada caso métodos adecuados para el registro de la len
gua y empeñándose por descubrir de la mejor manera posible sus pautas fónicas y
sus regularidades gramaticales. Como resultado de la obra de Bloomfield se pudo
luego identificar las estructuras constitutivas del análisis sintáctico.
Para dominar las propiedades de estos diversos idiomas, Bloomfield no se
contentó simplemente con sus propias investigaciones, sino que vislumbró la posi
bilidad de formar un equipo de lingüistas avezados, fundó una sociedad de lingüís
tica y lanzó una serie de publicaciones. A su entender, la lingüística era una cien
cia natural que seguía los lineamientos de la f ísica:
Las ideas de Sapir fueron más tarde desarrolladas por su discípulo, Benjamín
Lee Whorf. Este no eludió la conclusión de que aun nuestras nociones más básicas
.228 | La nueva ciencia de la mente
pueden derivar del lenguaje. Para los newtonianos, el espacio, el tiempo y la mate-
ria son .un indicio de que idénticas intuiciones prevalecen en todos los lugares del
mundo; pero Whorf interpuso una objeción, sosteniendo que los indios liopi,
por ejemplo, tienen concepciones totalmente distintas de estas categorías kantia
nas, y que estas diferencias proceden de la forma diversa en que su lenguaje anali
za el universo;
Muchos fueron los lingüistas interesados por la obra de Whorf y de Sapir, así
como muchos psicólogos y antropólogos encontraron en ella una excelente fuente
de hipótesis fecundas. (En el capítulo 12 examinaré algunos de los trabajos que
inspiró dentro de la ciencia cognitiva.) No obstante, como a gran parte de los
trabajos sobre semántica efectuados en este período, la corriente principal délos
lingüistas la consideró periférica: harto difícil de captar, harto contaminada por el
“mundo real” y por la peligrosa noción de “significado” , y no susceptible de ser
abonada mediante documentaciones y pruebas suficientes. Las posturas de Sapir y
Bloomfield se alzan en agudo contraste entre sí. Bloomfield asumió la posición
de un científico riguroso, centrado en la metodología y el análisis formal. Su
insistencia en un enfoque estrictamente mecanicista del significado y su pesimis
mo respecto de la semántica contribuyeron al relativo desdén que suscitó su
objeto de estudio. Sapir, cuya obra recuerda mucho más la de Jakobson, abarcó
una amplia temática y no temió ocuparse de la cultura, la conceptualización y el
significado. Paradójicamente, compartió muchas intuiciones de Chomsky acerca
de las estructuras lingüísticas, aunque no tuvo las inclinaciones formalistas de éste
ni de Bloomfield. Todavía debe producirse en lingüística una síntesis de los enfo
ques e intelecciones de Bloomfield y de Sapir.
sentar sobre bases firmes la gramática y otros aspectos del análisis descriptivo.
Se había tomado la fonología como modelo de la gramática; la semántica se consi
deraba separada de ésta, y se entendía que el lenguaje era pornaturaleza siste
mático. Se suscribían los métodos de descubrimiento inductivo y prevalecía la
opinión de que debía partirse del nivel más simple (el del sonido) y de allí pasar
a la palabra (morfología), la sintaxis y luego la semántica. Cierto es que aún no se
habían dado todos estos pasos decisivos, pero estaba muy difundida la creencia de
que sólo era cuestión de tiempo hasta que se llegara a comprender por entero las
diversas formas y niveles de la lengua (Newmeyer, 1980).
A esta sensación de progreso y de realización se sumaban los rápidos avances
en otros campos conexos. Las teorías de la información, que se ocupaban de los
canales de la comunicación, y técnicas como la de los modelos estocásticos o
probabilísticos, parecían aliados naturales para el análisis del lenguaje. La inven
ción del espectrógrafo de sonido para el examen de muestras del habla prometía
poner al descubierto las propiedades físicas de la señal lingüística. El historiador
Newmeyer declaró: “Muchos lingüistas sostenían que, con métodos tan bien ela
borados, la monótona labor del análisis lingüístico podía quedar ahora en manos
de la computadora. Todo lo que había que hacer, en principio, era meter en ella
los datos, jy de allí saldría la gramática!” (1980, pág. 2).
No obstante, un examen más' atento revela que el panoramano se presentaba
tan auspicioso como pensaban la mayoría de los comentaristas de la época. Ante
todo, según apunté en capítulos anteriores, rápidamente se estaba quebrantando
la hegemonía de la filosofía empirista y de la psicología conductista; y a medida
que estas concepciones comenzaron a caer en el descrédito, fueron socavadas las
bases mismas de la plataforma lingüística de Bloomfield. Incluso estudiosos muy
influidos por esta revolución filosófica habían empezado a plantear dudas acerca
de los métodos lingüísticos. La cosa no era tan sencilla como parecía; no se trata
ba simplemente de reunir datos y describirlos en forma objetiva: las expectativa:
del sujeto, sus conocimientos del significado de esos datos, inevitablemente lo:
coloreaban y prestaban a descripciones en apariencia objetivas el inquietante
aspecto de estar dando vuelta en círculos. Incluso Hockett, defensor de lo
enfoques vigentes en esa época, declaró en 1955 que era imposible analizar ui
lenguaje objetivamente: había que “empatizar” con la información (citado é:
Newmeyer, 1980, pág. 17).
Los esfuerzos por restaurar el edificio de la lingüística estructuralista partie
ron desde dentro, y probablemente los más airosos fueron los emprendidos pe
Zellig S. Harris (1952). Este salió al paso de las dificultades que presentaban le
enfoques puramente descriptivos de la sintaxis, postulando reglas de transfornu
ción capaces de explicitar las relaciones intuitivas entre ciertas oraciones. Pero
bien Harris inventó fórmulas sutiles y muy útiles para organizar los d atos, se resi.
tió con todas sus fuerzas a.reunir todas las transformaciones en un marco teóric
unitario o a postular un nivel abstracto de análisis. Chomskyaprendió estos m'
230 | La nueva ciencia de la mente
todos de su maestro Harris y, como varios han sugerido, era inevitable que por su
mayor inclinación teórica tratara de extraer las consecuencias de ese enfoque
transformacional respecto de los empeños que a la sazón se llevaban a cabo en lo
tocante a la escritura de las gramáticas. El resultado, como hemos visto, fue su
obra Syntactic Stmctures, en la que postuló un nivel de análisis más abstracto que
el de la oración superficial, a la cual ya le habían sido aplicadas las transformacio
nes. En términos más generales, Chomsky no señaló simplemente las posibles
transformaciones entre oraciones, sino que estableció un sistema de reglas que, a
partir de las estructuras abstractas subyacentes, se proyectan en las oraciones
articuladas del lenguaje.
el niño pequeño) mientras adquiere su lengua natal. Cambios leyes en los valore;
de los parámetros se difunden por todo el sistema, hasta dar por resultado lo que
en la superficie pueden ser estructuras lingüisticas bastante distintas entre sí
(Chomsky, 1982). La gramática de una lengua particular que a la postre surge de
ello puede considerarse como un conjunto de valores para cada uno de estos pará
metros: la serie general de reglas, principios, etc., constituye la GU, que a su vez
forma parte de la facultad humana del lenguaje.
He aquí la síntesis de dos concepciones presentes en la ciencia de la mente.
Una de ellas procede de la filosofía y se remonta a Platón; según ésta, el lenguaje
es una suerte de objeto ideal, gobernado por un pequeño conjunto de principios
universales, que tienen una cantidad comparativamente.pequeña de parámetros
(Chomsky, 1981). La otra concepción procede de la biología y presenta al lengua
je como un sistema orgánico, o módulo, que tiene en sí mismo la potencialidad de
desarrollarse en una gama reducida y delimitada de maneras; el camino particular
de desarrollo que da una cierta gramática básica o “nuclear” está determinado por
las clases de información con que se encuentra el organismo. Con estas dos con
cepciones, pueden explicarse a la vez las similitudes presentes en todas las lenguas
(gracias a la gramática universal) y las diferencias entre ellas (gracias a las variacio
nes en la fijación de sus parámetros). . :
¿Cómo ha de entenderse uná teoría tan compleja—gue ha sufrido modifica
ciones críticas en unos pocos años, y sin duda las seguirá experimentando? Una
opinión al respecto, a veces adoptada por los ex discípulos de Chomsky, consiste
en subrayar las diferencias que presenta la teoría entre uno y otro período,y atri
buirlas a los empeños por apuntalarla frente-a -las teorías rivales. Esta posición
crítica fue la asumida por George Lakoff (1980); paiTéL'Chornsky tuvo que elimi
nar las transformaciones y la estructura profunda debido a que le resultó imposi
ble sostener la premisa esencial del carácter modular, o sea, de la independencia de
la sintaxis. Una vez que Lakoff y sus colegas demostraron que el significado y el
uso afectan virtualmente a todas las reglas sintácticas, Chomsky debió reducir en
forma progresiva el dominio de la sintaxis: reglas que antaño se consideraban
pertenecientes con claridad a este dominio fueron redefinidas como parte de la
semántica. Según esto, Chomsky admitió en la práctica'la validez de las críticas
que se le hicieron, aunque en sus declaraciones lo negara. El historiador de la lin
güística norteamericana Frederic Newmeyer ofrece otra interpretación de este
fenómeno. Teniendo en cuenta que cada generación de discípulos de Chomsky
continúa trabajando durante su período de formación,en tom o de las ideas fun
damentales propuestas por su maestro, afirma: - \z 3~i7Zi;:
Al comienzo de la década de 1960, Chomsky era un “sintáctico abs
tracto” ( . . . ) ¡y muchos de sus discípulos de ese periodo lo siguen siendo!
A fines de esa década Chomsky propuso, frente a la sintaxis abstracta, la -
alternativa lexicalista ( . . . ) y quienes fueron a la sazón sus alumnos conti-^
núan desarrollando este modelo. Así, podemos predeár que los discípulos ■
236 | La nueva ciencia de la mente
Según mi propio modo de ver, Chomsky ha sido influido sin duda por las crí
ticas de sus discípulos y de otros estudiosos que simpatizaron, en general, con la
gramática generativa, pero no quiso reconocer expresamente esta influencia. Y
como es un hábil polemista y no acepta sin más las impugnaciones, ha tendido a
referirse en términos peyorativos incluso (o quizás especialmente) al hablar de
aquellos que tuvieron alguna influencia sobre él. Este estilo retórico de Chomsky
tendió a polarizar el debate.
Pero a despecho de los innegables cambios de énfasis y de estrategia, Choms
ky adhirió en grado notable al programa que planteó inicialmente a la comunidad
académica en su obra Syntactic Structures y que llevó a la práctica desde su tem
prana juventud. El carácter central de la sintaxis, la existencia de un componente
transformacional, la concepción de la semántica como una interpretación de rela
ciones sintácticas básicas: todos estos elementos han perdurado. Chomsky está
en lo cierto al afirmar:
Creo que en los últimos siete u ocho años, el dominio particular al que he
aplicado la mayoría de mis energías, el de la estructura del lenguaje, ha
experimentado un interesantísimo proceso. No pretendo ser el vocero de
una opinión compartida por todos en este campo; de hecho, en este sentido
formo parte de una pequeña minoría; pero creo que en estos años ha sido
posible desarrollar una teoría de las lenguas con un grado tal de estructura
=- - deductiva, cuyo grado de unificación y poder explicativo supera todo lo
imaginable incluso una década atrás. Repito, no creo que sean muchos los
lingüistas que coincidan conmigo en torno de esto ( . . . ) supongo que hoy
7. Lingüistica: la búsqueda de autonomía | 237
formo parte, como digo, de una pequeñísima minoría. Pero así ha sido
siempre. Para mí no han cambiado mucho las cosas con respecto a diez o
veinte años atrás. No obstante, mis opiniones no son hoy las de entonces, y
confío en que tampoco sean iguales dentro de diez años. Cualquiera que
desee formar parte de una disciplina activa y en crecimiento debe partir de
esta base. (Citado en Rieber, 1983, págs. 62-63.)
Hay, empero, una esfera psicológica en que las ideas y ejemplos de Chomsky
ejercieron enorme influencia: la psicología del lenguaje o psicolingüistica, como
suele denominársela. En las últimas décadas, la psicolingüística se ha convertido
en un área importante de indagación, incluyendo estudios acerca del lenguaje
normal del adulto, el desarrollo de la capacidad lingüística en los niños y los daños
que experimenta el lenguaje cuando se sufre una lesión cerebral, así como el uso
del lenguaje en determinados grupos de la población, tales como los sordos. Gran
parte de los trabajos en estas esferas se han centrado en la capacidad sintáctica,
tomando de Chomsky, en general, los modelos para el análisis. A veces estos
modelos se emplearon como medio de caracterizar los datos reunidos, mientras
que otras veces los datos se utilizaron para verificar la “realidad psicológica” de
los modelos, o sea, el grado en el cual el comportamiento lingüístico se desenvuel
ve de acuerdo con los principios expuestos por Chomsky.
Luego de dos décadas de trabajos en psicolingüística, la mayoría de los psicó
logos han renunciado a aplicar las ideas de Chomsky en forma directa a sus propias
investigaciones. No sólo son sus formulaciones demasiado abstractas y han sufrido
frecuentes cambios (en el caso típico, volviéndose más abstractas todavía), sino
que, cuando se las aplicó, los resultados no fueron compatibles (al menos en forma
evidente) con los modelos expuestos por Chomsky. Por ejemplo, una gran canti
dad de psicolingüistas evolutivos procuraron describir la adquisición de la lengua
teniendo en cuenta las categorías y derivaciones de Chomsky, pero sus empeños
terminaron casi siempre fracasando. Recientemente se han realizado interesantes
tentativas por desarrollar una teoría de la aprendibilidad [leamability], o sea, una
descripción formal de las restricciones que deben operar en el aparato cognitivo
del niño si ha de aprender la lenguá a partir de los datos que lo rodean (Wexler,
1982; Wexler y Culicover, 1980). Steven Pinker (1984) intentó interpretar los
datos que se conocen sobre la adquisición de la lengua en función de los princi
pios de aprendibilidad. Es aún prematuro decir si este enfoque constituirá un
nuevo empleo, dentro de la psicolingüística, de un método de inspiración choms-
kiana (o “generativo” ), o si la perspectiva chomskiana continuará atrayendo sólo
a una pequeña minoría.
" En general, Chomsky ha tenido más influencia en psicolingüística por los
interrogantes que formuló, que por la utilidad directa de su teoria para la experi
mentación. A veces, tanto él como sus partidarios desacreditaron las investigacio
nes empíricas en psicolingüística con el argumento de que sus teorías estaban
referidas a la competencia ideal, y no a la ejecución individual. Creo que esta
opinión es injustificada: Chomsky y sus adeptos citan sin remilgos los datos empí
ricos cuando parecen concordar con su teoría. No obstante, está lejos de resultar
claro hasta qué punto las ideas chomskianas pueden traducirse en forma directa
en trabajos empíricos; y, al menos en este sentido, las reservas de Chomsky son
aceptables.
Las nuevas ideas chomskianas fueron introducidas en el mundo filosófico
7 . Lingüistica: la búsqueda de autonom ía | 1 J
Evaluación provisional
Aunque aún estamos muy lejos de ver con claridad si prevalecerán en última
instancia las posiciones de Chomsky —ya sea en la lingüística propiamente dicha o
en sus disciplinas vecinas—, esinnegable que él ha suministrado un marco de refe
rencia para el debate. Sus ideas acerca de las cuestiones importantes en lingüística
continúan dominando las polémicas en p a n parte de la profesión, y su manera de
formular los interrogantes ha influido en todos los científicos cognitivistas, aun
en aquellos que son manifiestamente hostiles a sus concepciones, y en jóvenes
estudiosos que apenas conocen la fuente de sus propias concepciones.
Si el pado en que un individuo puede ser reemplazado dentro de una disci
plina pudiera medir su importancia, a todas luces Chomsky se nos presenta como
la figura más destacada de la lingüística de los últimos años, pareja a las de Saussu-
re y de Jakobson en épocas anteriores, y capaz de ejercer en definitiva una influen
cia quizá mayor que éstos en cuanto al rumbo impreso a este campo. Dentro de las
ciencias cognitivas en sentido amplio, sus aportes son más debatibles y menos
seguros. No obstante, sobre la base de sus demostraciones acerca de la precisión
matemática implícita en el lenguaje, sus modelos de investigación que conce
dieron tanta importancia a la teoría y sus potentés alegatos en favor del menta-
lismo, el innativismo y el carácter modular del lenguaje, opino que se halla entre
los dos o tres pensadores más destacados —menos reemplazables— de este movi
miento. Quizá Piaget puso de manifiesto una mayor cantidad de 'fenómenos
importantes; tal vez Herbert Simón y Alien Newell expusieron un paradigma
emulado por un mayor número de investigadores; pero nadie ha encuadrado con
tanta precisión y convicción como Chomsky las cuestiones propias de la ciencia
cognitiva. Por añadidura, aunque ni siquiera él cumplió con los rigurosos criterios
que demandaba para una teoría lingüística, los que formuló en sus primeros traba
jos fueron el patrón de medida de todas las teorías lingüísticas subsiguientes (y
de los teóricos que las sustentan). Si su repercusión ha de ser amplia o no en otras
ciencias cognitivas, ello dependerá de que su modelo, que ha demostrado ser
fecundo en el campo del lenguaje, pruebe ser igualmente útil en otros ámbitos,
7. Lingüística: la búsqueda de autonom ía | 24°
rársela una buena caracterización de los aspectos centrales del lenguaje. En lugar
de ello, tal vez salgan ganando los enfoques de la lingüística computacional
basados en la colaboración entre diversos componentes —donde se concede franca
importancia a los aspectos pragmático y comunicativo, y se parte de la base de la
interacción entre los factores semánticos y sintácticos-.
¿Qué puede decirse acerca de la relación entre el estudio del lenguaje y las
demás ciencias cognitivas? Un camino consiste en ver los aportes que otras discipli
nas pueden hacer al lenguaje, mientras se continúa considerando a éste un dominio
.aparte, digno de ser investigado por sí mismo. En este caso, el lenguaje —jurisdic
ción de la lingüística— es esclarecido por las demás disciplinas, como sucede con
' los estudios neurolingüísticos de la elocución o las investigaciones psicolingüísticas
i sobre el reconocimiento de fonemas. Muchos hombres de ciencia (incluidos los
........... asesores primitivos de la Fundación Sloan) han sostenido que el lenguaje es el
mejor campo de prueba para una ciencia cognitiva integrada. Puede haber enton-
ces estudios paralelos de tipo interdisciplinario, dirigidos hacia otros dominios del
• saber, como la visión, el movimiento y la acción motora. He aquí, claramente, un
modelo para la ciencia cognitiva que sigue lineamientos “verticales”, por el cual yo
_ ........ tengo mucha simpatía. . .. . ■■•••— — - -- .........
Hasta cierto punto, el grado en que puede apartarse'el estudio de la lengua de
otras disciplinas emditas depende de las cuestiones que a uno más le interese escla
recer. Si lo que interesa es el lenguaje como sistema abstracto —sea que se lo consi-
— • dere creación de alguna fuerza divina, o simplemente un patrón emergente del
cerebro—, entonces es apropiado estudiarlo en función de las categorías taxonó
micas y estructurales por las cuales se inclinan los lingüistas. (En este caso, el
lenguaje se convierte en un objeto de estudio “distante” , análogo al sistema solar
que indagan los astrónomos.) Pero si lo que interesa es la participación del
r lenguaje en el intercambio huma o, la concepción de la lingüística divorciada de
otros empeños científicos se vuelve menos sostenible. ..........
En armonía con esta última posición, algunos han adoptado (o readoptado)
un modelo más “horizontal” de lá ciencia cognitiva. Según éste, es erróneo
suponer que cualquier disciplina tiene un objeto de estudio privilegiado (por ejem
plo, el lenguaje en el caso de la lingüística); más importante es conectar cualquier
actividad humana con toda la gama de campos conexos que puedan indagarse.
Además, el lenguaje no pertenecería a una disciplina en particular, sino que for-
“ - maría parte de todas las ciencias cognitivas, y por ende los empeños por desli -
• darlos serían artificiales o desencaminados. Esta creencia guió los estudios de
- Jakobson enel área dé la poética, los trabajos de Sapir sobre el lenguaje y el pensa-
miento, y las indagaciones de Saussure sobre la historia de la lengua. RoyHarris,
un acerbo crítico de Chomsky, ha demandado una integración mayor de estos
fT» campos: declaró:
7. Lingüística: la búsqueda d e autonom ía | 245
sí mismos y a la vez, como distintos de sí. Los trumai (una tribu del norte de
Brasil) dicen que son animales acuáticos, con lo cual quieren significar no que son
sólo peces, sino que son al mismo tiempo seres humanos y peces. En segundo
lugar, Lévy-Bruhl propuso —y esto no era menos incomprensible para la mente
occidental— que los primitivos pueden emitir y recibir fuerzas, propiedades y
cualidades místicas que sienten externas a ellos, sin dejar de ser lo que son. Así,
un recién nacido puede sufrir las consecuencias de todo lo que su padre hizo, dijo,
comió, etc. (Cazeneuve, 1972). Teniendo en cuenta estas propiedades, la mente
primitiva no rehúye la contradicción. No necesita renunciar a una idea por el
hecho de que ésta choque con otra: ambas pueden sostenerse en forma simultá
nea.
Al establecer este diferente modo de pensar, Lévy-Bruhl puntualizó también
los problemas que entrañaba extrapolar lo vigente en una población humana a
otra. Nada sustituye el estudio minucioso de las representaciones “mentales” de
cada grupo. Como consecuencia de dicho estudio, afirmó, la mente del primitivo
se nos presenta como muy distinta de la del europeo contemporáneo: aquélla está
dominada por la emoción y el afecto, se preocupa poco de la lógica, tolera contra
dicciones y fuerzas místicas que serían un tabú en un contexto cartesiano civi
lizado.
No es nada raro que un estudioso defienda sus puntos de vista cuando son
atacados por la generación siguiente; no obstante, al menos en su vida privada,
Lévy-Bruhl transgredió esta pauta. En sus apuntes publicados en forma postuma,
entabló un debate tan riguroso y tortuoso como cualquiera de los aparecidos en
las publicaciones profesionales. Dudaba allí de que los primitivos realmente pose
yeran una forma de pensamiento distinta, pre-lógica:
lo que nos ha sido descripto bajo el nombre de mentalidad primitiva es una estn
tura permanente de la mente humana; pero en nuestra sociedad esta estructura
desdibujada por la supremacía del pensamiento científico, mientras que entre
pueblos ágrafos permanece en primer plano” (1972, pág. 22). Y concluía exp
sando un sentir que sería suscripto por gran cantidad de estudiosos hoy día: “
estructura fundamental de la mente humana es la misma en todas partes” (p
•12) .
La lucha interna en que se debatía Lévy-Bruhl reflejaba una discusión m
difundida en Occidente desde que los seres humanos tomaron conocimiento de
existencia de pueblos exóticos, y comenzaron a cavilar acerca de su relación c
los reductos más conocidos de la humanidad. Aunque este debate se tuzo exter
vo a la moral y los valores de esas poblaciones extrañas, el interés más acudai
se centró siempre en el carácter de sus procesos de pensamiento. ¿Tenían ello:
misma clase de lógica que “nosotros", o era la lógica de rada grupo exclusiva
éste? ¿Cómo podemos internamos en la mentalidad del primitivo y ver el mur
igual que él? Los investigadores interesados profesionalmente por estas cuestio'
“corrían el riesgo” de convertirse en antropólogos.
En la época de Lévy-Bruhl, a comienzos de este siglo, las fuentes de los da
eran principalmente textuales: se acudía a relatos escritos de los mitos o, c
menor frecuencia, a transcripciones de diálogos con individuos ágrafos, y luego
extraían conclusiones acerca de la clase de pensamiento que allí se trasunta
Pero estos métodos hermenéuticos no podían alcanzar status científico,
fue que en el siglo XX, los estudiosos de orientación antropológica se aplica,
cada vez más a examinar en el terreno, de primera mano, los procesos de per
miento de “su gente” . Este pasaje a los “estudiosde casos” , como se los de
minó, fhe por cierto un paso importante desde el punto de vista empírico,
embargo, el problema del trabajo de campo individual es que dejaba un mar:
quizá excesivo al arbitrio de un solo investigador o de un pequeño equipo de irn
tigadores.
En la historia de la antropología de este siglo, se abrió un capítulo signif
tivo con la búsqueda de métodos de indagación menos idiosincrásicos y más c
fiables (Herskovits, 1953; Kardiner y Preble, 1961).Como, en general, no resu
ba práctico que grandes equipos de investigadores visitaran un mismo sitio —
lo hacían en época muy diversa, probablemente no dieran testimonio de
“mismos” pueblos (Freeman, 1983)-, se otorgó primacía al empleo de meto*
más objetivos por un mismo equipo de investigación. Eso dio origen en ladée,
del sesenta al campo de la etnología o etnociencia, que reunió un conjunto apar
temente objetivo de mediciones empíricas mediante las cuales se evaluaron
procesos de pensamiento de los pueblos de todo el mundo. : ' s;
Los etnólogos no tenían dificultad alguna en invocar el nivel representar
nal. Lo que para otras disciplinas de orientación experimental significó dar uq.c
ril paso adelante, para los antropólogos fue una evolución natural. Los problei
25 0 | La nueva ciencia de la mente
radicaban en otro lado. Durante un tiempo, pareció que los nuevos procedimien
tos empíricos de la antropología la asentarían sobre bases científicas más firmes,
pero luego estos métodos crearon insatisfacción: si bien eran elegantes, parecían
dejar de lado demasiados aspectos esenciales del pensamiento y las experiencias
de una cultura. Fue así como se produjo un retomo, siquiera parcial, a la concep
ción de que la antropología debía volver al método holístico del estudio, de casos
en profundidad, y quizá realinearse con las humanidades y apartarse de las
ciencias. La permanente incertidumbre acerca de si las indagaciones antropológi
cas deben adoptar los métodos de la ciencia experimental cognitiva constituye un
segundo tema fundamental de esta disciplina.
Las especulaciones en tomo.de los diferentes pueblos del mundo se remontan
,a la época clásica. Ya desde Heródoto se sabía que las pautas de conducta de los
humanos difieren de una sociedad a otra, y se procuró documentar y explicar (o
justificar) tales diferencias. Los exégetas de la Biblia a menudo databan el origen
de algún pueblo exótico en algún episodio, como la diáspora de los tres hijos de
Noé o los vastagos del proscripto Caín, cuyo rostro había sido cubierto por las
tinieblas. Muy a menudo se suponía que determinados pueblos exóticos, como los
indígenas americanos o los árabes nómades, constituían una corrupción o degene
ración de una humanidad “pura”, contrastando con la rama que descendía directa
mente de Adán o de Abraham, .a la que pertenecían, por supuesto, los europeos
contemporáneos.
El reavivado interés por los estudios de este tipo y los viajes a países remotos
que caracterizaron al Renacimiento hicieron que estas antiguas especulaciones
cobraran un nuevo vigor. Algunos continuaron sosteniendo la idea de la degenera
ción de ciertos pueblos, pero otros subrayaron las semejanzas entre los salvajes
contemporáneos y los antecesores del hombre civilizado. Las comparaciones entre
los europeos primitivos y los salvajes actuales tenían como corolario que éstos
estaban simplemente en una etapa anterior de desarrollo que aquéllos. Como lo
expresó un comentarista: “Europa y América ( . . . ) zanjaron la cuestión ubicando
a sus naciones en un extremo de la serie social y a las tribus salvajes en el otro, y
ordenando al resto de la humanidad entre estos límites según que guardaran
mayor correspondencia con la vida salvaje o con la vida civilizada" (Hodgen, 1964,
pág. 483).
Otros estudiosos simplemente procuraron comprender estas diferencias, y en
tal sentido fue ejemplar la labor del sabio francés Charles Louis Montesquieu,
quien se ocupó de las leyes, costumbres e ideas morales prevalecientes en distin
tos lugares del mundo. En su empeño por explicar por qué las sociedades diferían
entre sí, Montesquieu recurrió a factores como la densidad de población, las barre
ras geográficas, el grado de aislamiento de un pueblo, las etapas de su desarrollo
tecnológico, sus pautas de subsistencia, sus actividades comerciales, el clima y el
suelo. A su juicio, el entorno natural y las condiciones climáticas cumplían en las
sociedades salvajes un papel más decisivo que en las sociedades más desarrolladas.
8 . Antropología: m ás allá del caso individual ( 251
La versión norteamericana
mentar con cuidado lo que ocurre en cada cultura y tratar de entender por qué
sucede, en vez de evaluar en qué medida es una cultura simple o avanzada (como
insistían en hacerlo los evolucionistas) o en vez de averiguar de dónde procedía (a
lo que eran proclives los difusionistas). Este estudio de casos individuales bien
documentados, junto al rechazo de las tentaciones evolucionistas o difusionis
tas, caracterizó a la antropología en la era posterior a Boas.
Boas subrayó la importancia del lenguaje y de la lingüística para todo estudio
antropológico. Sumamente dotado para el aprendizaje de las lenguas, desarrolló
métodos para su notación cuidadosa y estimuló a muchos de sus discípulos para
que documentasen las lenguas de los indígenas mientras aún seguían en uso.
Leonard Bloomfield, precursor de los estudios lingüísticos en Estados Unidos,
rindió tributo a las notables realizaciones de Boas en este campo:
Según Boas, cada lengua era una creación singular que debía ser considerada,
al estilo de Saussure, una totalidad orgánica. Destacó que las lenguas pueden
converger a partir de diferentes fuentes y también diverger desde una fuente
común; y deploró la insistente búsqueda en el siglo XIX de una lengua básica o
“fundamental”, de la cual provendrían todas las demás. También subrayó el
importante papel que cumple el lenguaje en cualquier actividad humana, aunque
descreyó de que la cultura pudiera verse limitada por la forma de la lengua parti
cular que en ella rige. De hecho, oponiéndose a la concepción de Whorf y de Sapir,
entendía que el pensamiento influye en el lenguaje, y no a la inversa. Y aun cuan
do algunas lenguas tienen menor predilección por los términos abstractos, todas
son lo bastante complejas como para efectivizar en toda su variedad el pensamien
to de los hombres. Gracias a la insistencia de su mensaje, en los círculos académi
cos norteamericanos ha habido siempre estrechos lazos entre los campos de la
antropología y la lingüística, y esto sirvió como modelo del tipo de cooperación
por el cual se empeña hoy la ciencia cognitiva.
Las ideas de Boas sobre el lenguaje se vinculaban íntimamente con las que
:enía acerca de la mentalidad primitiva. Según él, la diferencia principal entre los
orocesos mentales de los pueblos primitivos y los nuestros radica en este solo
hecho: mientras que las categorías empleadas por los primitivos se desarrollan de
jn modo burdo e irreflexivo, los pueblos contemporáneos cultos han podido sis
tematizar sus conocimientos a la manera del científico racional. Esta diferencia no
procede de que cada miembro de nuestras sociedades pienseen forma más lógica,
8 . Antropología; más allá del caso individual | 257
sino más bien de que diversos textos de tipo filosófico, elaborados en forma siste
mática a lo largo de generaciones, están al alcance de la población en general. Las
propias exploraciones de Boas lo convencieron de que los indígenas y los esquima
les eran capaces de apreciar el lenguaje y el pensamiento abstractos si se los ponía
frente .a ellos, pero que simplemente estas inquietudes no formaban parte de su
medio intelectual comente. Así pues, Boas fue, en general, uno de los primeros
y más intensos defensores de la concepción según la cual los indios primitivos y
los modernos poseen en potencia la misma capacidad cognitiva; y entre las grandes
contribuciones de Boas al pensamiento antropológico contemporáneo debemos
incluir su permanente sospecha de las dicotomías no documentadas o injustifica
das entre los “primitivos” y los “modernos” .
Desde los comienzos de su cañera Boas se mostró renuente a toda tentativa
de valorar a un ser humano o a un grupo humano como mejor o peor que otro;
y a medida que aumentaba su nombradía, apeló a su creciente influencia pública
para luchar contra todas las formas de racismo. No menos formidable que sus
aportes a la antropología fue este desafío suyo a la idea (aún prevaleciente en los
Estados Unidos) de que los integrantes de un grupo social o étnico pueden ser más
inteligentes o virtuosos que los de otros. El tema en que más insistió en sus escri
tos fue que no existía ningún fundamento científico para rotular a un grupo como
inferior a otro; y este tema pasó a integrar la trama de la ciencia social desde la
década de 1930 hasta la fecha.
La versión estructuralista
Hasta aquí estábamos en la lingüística pura, del tipo expuesto por Jakobson
y sus colaboradores de la escuela de Praga, al cual habían adherido, de manera más
o menos fiel, otros epígonos de Saussure. El paso decisivo que dio Lévi-Strauss,
y el núcleo de su contribución a la antropología, consistió en su insistencia y
demostración de que la mejor manera de concebir determinados aspectos claves
de la cultura era considerarlos de naturaleza lingüística, y abordarlos mediante los
métodos de la lingüística estructural.
Lévi-Strauss quería granjearse la atención de sus colegas, e inició sus indaga
ciones por un área que inquietaba a todos los antropólogos: la de las relaciones de
parentesco o estructura de parentesco. Para empezar, señaló que en cualquier
estructura de parentesco los datos primordiales son las relaciones entre determi
nados términos (padre, hijo, etc.) y las actitudes de las personas (pariente íntimo,
lejano, etc.), que en ambos casos se organizan como sistemas. Seleccionó, para
poner a prueba sus ideas estructurales, el problema clásico de las relaciones
avunculares; las que existen entre el tío materno que representa la autoridad
familiar y ejerce ciertos derechos sobre su sobrino, pese a lo cual puede mantener
con él un vínculo informal y jovial. Lévi-Strauss indicó que hay una correlación
entre esta serie de actitudes y las que el joven sobrino mantiene hacia su propio
padre; en los grupos en que la relación entre padre e hijos se caracteriza por la
intimidad jovial, tío y sobrino mantienen una relación de respeto formal; a la
inversa, cuando el padre asume la autoridad familiar, es el tío el tratado con esa
jovial intimidad.
Radcliffe-Brown, un agudo analista de las estructuras de parentesco, ya había
llamado Ja atención sobre este fenómeno; pero en respuesta a él, Lévi-Strauss
sostuvo que no basta con estudiar la correlación de actitudes entre padre e hijo, y
entre el t ío y el hijo de su hermana; en lugar de ello, ateniéndose a la lingüística
8 . Antropología: m ás allá del caso individual | 261
que hace Lévi-Strauss del mito de Edipo se reduce a esta fórmula: la sobrevalora
ción de las relaciones consanguíneas mantiene con su subvaloración la misma rela
ción que el intento de eludir la autoctonía mantiene con la imposibilidad de
lograrla (Lévi-Strauss, 1963, pág. 216).
Tal vez parezca imposible entender este ejemplo elíptico y más aun aceptarlo,
pero transmite bastante bien la clase de empresa en la que se empeñó Lévi-Strauss.
Intentar “traducir” su descripción de una estructura mítica o de una estructura de
parentesco como el avunculado, de modo tal que resulte más clara o menos exóti
ca que en su versión original, es una maniobra distorsionante, que oscurecería
su argumentación. Como es dable apreciar, Lévi-Strauss tomaba un conjunto de
mitos o un fragmento cualquiera de un mito y procuraba reducir y reordenar sus
elementos para obtener como resultado una explicitación de los temas con que
operaba y de las clases de mensajes que parecía contener.
Entre los que adhirieron a la empresa iniciada por Lévi-Strauss, uno de sus
ex discípulos, Dan Sperber (1968, 1982), que en la actualidad trabaja en París,
suscribió al antiguo programa radical de su maestro para examinar los productos de
la mentación humana, coincidiendo con él en que el modelo de la lingüística es deci
sivo para los antropólogos. No obstante —y tal vez esto es lo que cabe esperar de
un miembro de una generación más joven—, Sperber piensa que Lévi-Strauss se
ha fundado en una escuela de lingüística equivocada. El enfoque estructural está
tan desactualizado en antropología como en lingüística, sostiene Sperber; y la
antropología debe ahora buscar modelos en la obra de Chomsky, Fodor y otros
miembros de la escuela transformacionalista. ,
En este aspecto, sus enseñanzas resultan en gran medida negativas, ya que se
concibe al lenguaje corno un sistema que opera regido por sus propias y especiales
leyes. En contraposición con lo que opinaba Lévi-Strauss, y como reflejo del viraje
que ha tenido lugar hacia principios específicos en cada dominio del saber, Sper
ber argumenta que el análisis lingüístico no puede aplicarse con propiedad a otros
fenómenos culturales, como los mitos, costumbres y rituales. En lugar de ello,
8. Antropología: m ás allá del caso individual | 26 7
dentro de su propio medio cultural; sólo de este modo puede llegar a compren
derse la dase de simbolismo que utiliza y el sentido que confiere al mundo que lo
rodea. Geertz critica el enfoque mecanicista de Lévi-Strauss, su ignorancia de las
condiciones históricas que engendran un determinado mito u organización social,
su subestimadón de los factores afectivos o emocionales, la pérdida dentro de su
concepdón del sujeto concreto, con sus propias necesidades, motivaciones, obje
tivos y deseos, todo ello en favor de un intelecto que, como un molino, desgrana
clasificaciones y proposiciones. Geertz cuestiona también que los productos
simbólicos puedan ser el resultado de mecanismos cognitivos internos; según su
concepdón de la mente como una entidad “pública” en mayor medida, los mitos,
rituales, creencias, etc., constituyen una forma de simbolización generada social
mente:
Etnociencia
Lo que Lévi-Strauss emprendió , en gran parte solo, armado con sus propias
intuiciones, se ha transmutado, en las tres últimas décadas, en una de las ramas
fundamentales de la antropología. Me refiero al campo de la etnociencia, bajo sus
diversos rótulos —análisis de componentes, etnosemántica, antropología cogni-
tiva—, todos los cuales aluden al estudio orgánico de los sistemas de pensamiento
de los integrantes de otras culturas, y a veces también de la nuestra.
8. Antropología: más allá del caso individual | 269
Raíces
En lugar de ello, lo que hace es inferir el sistema de reglas que esta gente
trata de aplicar. Y sólo estará seguro de que se halla bien encaminado hacia
la comprensión conecta de tales reglas cuando el sistema que ha inferido
tenga un cierto grado de completud lógica, y cuando eal aplicarlo, sea capaz
de generar conductas frente a las cuales un experto diría, en verdad: “Eso
es; así está bien; usted lo ha comprendido” (1968, pág. 5 37).
ci ca Ca
al a2 ai aa al a2
b, a b u e lo a b u e la
✓
t ío tía
ba p a d re m a d re
b3 .su je to h e rm a n o h e rm a n a p rim o
b. hyo h ila
s o b r in o s o b rin a
bj n ie to n ie ta
elementos, de tal modo que la aplicación de estas reglas genere los elementos
de un “modelo” ; modelo que, a su vez, resulta satisfactoriamente próximo a
una réplica facsimilar o exacta de los datos empíricos cuya interrelación y
cuya naturaleza sistémica procuramos comprender. Así pues, una descrip
ción formal es un aparato teórico para predecir en retrospectiva los. datos
de que se dispone, volviéndolos “comprensibles”, mostrando que son las
i consecuencias previsibles, acordes a ley, de un principio subyacente que
presumiblemente está en sus orígenes. (Citado en Durbin, 1966, pág. 31.)
tesco ingles, los términos pueden emplearse en una forma distinta del paradigma,
según los que se empleen, los métodos utilizados para las definiciones y las formas
en que se corresponden mutuamente las dimensiones (Kay, 1966).
Interrogantes más espinosos todavía surgen cuando uno pretende determinar
si un análisis de componentes es apropiado, o bien cuál de varios análisis de este
tipo es más correcto. La intuición de un hablante de lá lengua o de un antropólogo
sensato es una de las medidas utilizables para ello, pero también puede recurrirse
a métodos empíricos; por ejemplo, requerir a los informantes que respondan
preguntas, seleccionen ítems, definan términos, agrupen palabras o aun elaboren
su propio análisis de componentes. Así, una de las cuestiones más complejas del
análisis de componentes resulta ser su “realidad psicológica” : ¿éste aparece en
todos los informantes, o sólo en los más avezados y reflexivos? ¿Acaso no será
una invención del analista? De hecho, con respecto a la “simulación” del conoci
miento del miembro de un pueblo determinado, pueden plantearse los mismos
interrogantes que formuló John Searle en su “ enigma del cuarto chino” vinculado
con las computadoras.
Algunos de estos cuestionamientos fueron planteados precozmente por Walla-
ce y Atkins (1960), quienes señalaron los problemas que crean los homónimos y
sinónimos (palabras iguales con diferentes significados, o palabras diferentes con
el mismo significado) y metáforas, y señalaron también el problema de la connota
ción (palabras que tienen igual significado objetivo pero que connotan distintos
valores afectivos [como “padre” , “papá”, “papito” , “viejo” , etc.]). Otros críticos
adujeron que el análisis de componentes es por naturaleza circular, ya que se parte
de presumir la misma relación entre los términos que, precisamente, debe estable
cerse al final de la indagación. En otras palabras, la existencia y la coherencia del
dominio del saber que se pretende explorar son presupuestas antes de iniciar la
investigación (Gardin, 1965). Algunos comentaristas abordaron los enormes
problemas de traducir términos de una lengua extranjera, en particular si no es de
origen indoeuropeo, a otra lengua conocida, en el supuesto de que a esas traduc
ciones puede aplicárseles el mismo tipo de análisis (Crick, 1976; Keesing, 1976).
Por ejemplo, si en una cultura los hombres y mujeres hacen pocas cosas juntos, es
riesgoso transferir a los vocablos a ellos referidos los mismos significados que apli
caríamos a “lo masculino” y “lo femenino” ; y aun los términos “masculino” y
“femenino” pueden tener en esa lengua un uso y frecuencia muy diferentes que
“hombre” y “mujer” (Lyons, 1968).
Mucho más severas aun son las críticas provenientes de los que no compar
ten los enfoques analíticos formales. Clifford Geertz puntualiza que saber cómo
se puede discurrir verbalmente acerca de algo no es lo mismo que hacerlo. Es
8. Antropología: más allá del caso individual | 275
preciso prestar atención a la lógica que presenta la vida real y no a cierto conjunto
abstracto de elementos simbólicos cuya validez —para no hablar de las relaciones
lógico-formales que prevalecen entre ellos—para los habitantes de un pueblo es,
en el mejor de los casos, cuestionable. “Nada ha contribuido más a desacreditar
el análisis cultural que la elaboración de impecables descripciones de orden formal,
en cuya existencia efectiva nadie cree” (Geertz, 1973, pág. 18). Gary Witherspoon
sostiene que muchos aspectos de importancia no están presentes, simplemente, en
la lengua; y concluye:
tico, han subrayado en este caso sus limitaciones. Los efectos contextúales, histó
ricos y culturales pueden ser esenciales en la mayor parte del terreno que pisa la
antropología.
Murray menciona otra razón de la decadencia de la etnociencia: esta subespe
cialidad antropológica nunca llegó a constituir una perspectiva consolidada e inte
grada, sino que en el mejor de los casos fue una especie de confederación laxa.
Según Murray, en la competencia académica es más probable que prevalezcan los
grupos autotitulados revolucionarios, que exigen una adhesión total de sus adeptos
y se organizan bajo la conducción de un único líder visionario. (Nos viene a la
mente el ejemplo de Chomsky en la lingüística.) Una “confederación laxa” ofrece
menos resistencia a los rivales, y a la larga desaparece como enfoque diferenciado.
Los grupos que constituyeron la etnociencia, “luego de haber logrado un cierto
grado de éxito y de reconocimiento, debieron pagar el precio aparentemente ine
vitable de ello: el fraccionamiento. ( . . . ) Hacia fines de la década del sesenta, ya
no había estudiosos atraídos hacia esta disciplina y la etnociencia clásica había
dejado de existir” (1982, pág. 172).
Dentro de la antropología hay poco consenso acerca de los pasos que deben
darse para hallar un sucedáneo de la etnociencia estricta. Algunas autoridades han
continuado realizando sus estudios según la vieja tradición, pero con metas más
modestas. Otros han adoptado la concepción de Clifford Geertz (1973-1983),
para la cual los antropólogos se equivocaron al tratar de imitar a las ciencias natu
rales, ya que su objeto de estudio tiene mayor afinidad con el de la critica litera
ria interpretativa. (Al ocuparme de otros aspectos de la ciencia cognitiva retomaré
esta opinión de Geertz.) Y hay quienes piensan que.ciertas ideas y conceptos desa
rrollados en otros ámbitos de la ciencia cognitiva pueden ser provechosamente
incorporados a los estudios antropológicos.
Incursión psicológica
tos de la sociedad, y sin embargo los mecanismos mediante los cuales estos bits de
información se adquieren continúan en la oscuridad. D’Andrade aventura la opi
nión de que es improbable que la cultura pueda adquirirse sin un grado conside
rable de orientación y ejemplificación mediante modelos, pero las descripciones
psicológicas corrientes no han esclarecido todavía cómo se produce esta instruc
ción. Nuevamente, el modo en que los individuos aprenden el lenguaje vuelve a
presentarse aquí como una analogía tentadora, pese a sus peligros.
La técnica de la lesión - - - - - -
En los diez años posteriores a su formación con Franz, Lashley llevó a cabo
decenas de experimentos sobre el sistema nervioso de la rata. En el caso típico,
efectuaba la ablación de una zona de la corteza cerebral vinculada con la visión,
para determinar los efectos en la capacidad perceptual de la rata. Para 1929 pudo
resumir sus hallazgos en una obra fundamental titulada Mecanismos cerebrales e
inteligenda [Brain Mechanisms and lntéüigence]. Cuestionó vigorosamente la
importancia de las zonas y conexiones neurales específicas: “Es muy dudoso
—sostuvo—que estén involucradas las mismas neuronas o sinapsis aun en dos reac
ciones similares frente al mismo estímulo” (1929, pág. 3). Luego de describir
experimentos en laberintos con ratas a las que se les había practicado la ablación
----- cortical, concluyó diciendo:
.......
La capacidad [de la rata] para aprender a recorrer el laberinto depende
de la magnitud del tejido cortical funcional, y no de la especialización anató
mica de éste. ( .; .) Los resultados obtenidos son incompatibles con las
teorías del aprendizaje basadas en los cambios en la estructura sináptica, así
IZ___________como-con cualquier-otra teoría que presuma que las-integraciones neurales
particulares dependen de conexiones anatómicas definidas y especializadas.
(. ..) Hay que buscar los mecanismos de integración en las relaciones
dinámicas entre las partes del sistema nervioso, y no en los detalles de su
diferenciación estructural (pág. 3).
......... Con estas palabras, Lashley lanzaba el primero de una serie de grandes desa
fíos a lá comunidad neurocientífica. Después de todo, uno de los alicientes de la
neurociencia había sido la esperanza de encontrar las bases neurales específicas de
determinadas conductas.. . ¿y qué mejor premio que descubrir el foco neural de
un acto, pensamiento o secuencia de conducta? Y bien: he aquí que el gran inves
tigador declaraba, después de realizar experimentos durante décadas, que esa bús
queda era vana. Lashley ponía en tela de juicio la localización, o sea, la creencia en
que ciertas conductas residen en lugares neurales específicos. A la vez, aunque en
•.............forma menos expresa, denunciaba las dificultades propias del reducdonismo,
el programa científico que intenta explicar totalmente la conducta en función de
principios neurales (o de otros principios de orden inferior).
■i» ■
9. Neurociencia: el coqueteo con el reduccionismo | 287
Equipotencialidad y engramas
Una vez que Lashley logró establecer satisfactoriamente que no podía atri
buirse pautas determinadas de conducta a regiones corticales específicas, dedicó
el resto de su vida académica a buscar una alternativa viable frente a la postura
íocalizacionista clásica (Beach y otros, 1960). Se sintió atraído por las ideas de la
psicología de la Gestalt, según las cuales el organismo percibe pautas globales en
un comienzo y sólo después se vuelve sensible a sus elementos componentes.
Desde la perspectiva de Lashley, este enfoque psicológico tema también sentido
neurológico: tal vez el cerebro, en lugar de responder a formas de información
específicas, operase como una unidad integrada, respondiendo como totalidad
orgánica frente a pautas complejas de estímulos.
Lashley desarrolló además otros conceptos vinculados con lo anterior. Por
ejemplo, el de equipotencialidad, vale decir, la capacidad de cualquier parte de una
zona funcional para llevar a cabo cierta conducta. En la equipotencialidad inter
viene la ley de acción masiva, por la cual la eficiencia en el cumplimiento de una
función se reduce según la magnitud de la lesión cerebral que ha sufrido el área.
En otros términos, el deterioro del desempeño no se debe al lugar en que se
produjo la lesión, sino más bien a la cantidad de tejido destruido. Lashley lo
e xpresó de este modo:
Lashley, e l hereje
que demostraron que distintas partes del cerebro eran capaces de efectuar las
^mismas acciones. Flourens insistió en que las regiones cerebrales funcionan como
una totalidad, y en que la magnitud de un déficit no puede explicarse simplemente
por la zona cerebral que le está asociada, ni siquiera por el volumen del cerebro
vinculado a ese déficit. Concedía que el sistema .nervioso posee cierta especifici
dad, pero agregaba: “lo apropiado sería poner de relieve otro orden de fenómenos,
que incluye esta unidad eficaz del sistema nervioso, la cual reúne a todas sus partes
pese a la diversidad de su acción, pero también el grado de influencia que cada una
de esas partes aporta a la actividad común” (citado enHerntstein y Boring, 1965,
pág. 222).
Hacia fines del siglo pasado, la balanza volvió a inclinarse en favor de Gal] y
en desmedro de Flourens. Dos neurofisiólogos alemanes, Gustav Theodor Fritsch
y Eduard Hitzig (1870), demostraron inequívocamente que la estimulación de
distintas zonas de la corteza de un perro era seguida por la contracción de múscu
los específicos. Pocos años después, en Inglaterra, David Ferrier estudió las áreas
prefrontales de la corteza, y si bien no pudo demostrar la presencia en esa región
de funciones motrices ni sensoriales, sostuvo que
del lenguaje a una lesión en el lóbulo temporal izquierdo, al par que Jules Déjeri-
ne (1892) sostuvo que los problemas en la lectura y escritura procedían de.
lesiones en el lóbulo parietal izquierdo y en la corteza parietal-occipital (véase
Gardner, 1975).
Los localizacionistas estaban en su época de gloria. Al perfeccionarse cada vez
más los métodos para la experimentación con animales, pudo sostenerse la especi
ficidad de cada región de la corteza. Análogamente, un cúmulo de estudios sobre
pacientes con lesión cerebral fue corroborando la asombrosa especificidad de
ciertas deficiencias cognitivas. Tal vez —soñaban los optimistas—, si pudieran efec
tuarse estudios con un grado suficiente de particularidad, se pondría de relieve la
significación funcional de todas las áreas del cerebro. El localizacionismo habría
triunfado, y el reduccionismo volvería a ganar credibilidad. ^
Pero los seguidores de Flourens seguían siendo escépticos acerca de esto y
no se dieron por vencidos. Pocas décadas después de la publicación del célebre
artículo de Broca, un neurólogo francés, Pierre Marie, declaró ante la Sociedad
Neurológjca de París que “la tercera circunvolución frontal no cumple ningún
papel especial en la función del lenguaje” (1906, pág. 241). Marie había vuelto a
examinar los cerebros originalmente estudiados por Broca y llegó a la conclusión
de que las pretensiones del maestro carecían, simplemente, de justificativo. Cada
uno de los pacientes de Broca había padecido lesiones mucho más amplias de lo
que éste informó, y tampoco documentó con precisión suficiente toda la gama de
deficiencias concomitantes. Marie sostuvo que existía una única forma de afasia,
que podía proceder de lesiones en diversas zonas de la corteza; las afirmaciones de
los localizacionistas eran enormemente exageradas.
La postura holista asumida por neurólogos como Pierce Marie, Kurt Goldstein
y Heniy Head se vio reforzada por ciertos acontecimientos en el campo de la
psicología. Como a Karl Lashley —su contrapartida en el ámbito de la neuropsico-
logía animal—, a estos investigadores los impresionaron mucho los hallazgos de la
psicología de la Gestalt. Resultaba claro que el organismo no reaccionaba frente
a estímulos singulares, sino frente a la relación entrólos estímulos, frente a pautas
globales, y percibiendo los estímulos como parte de un contexto. Por añadidura,
la premisa de la psicología de la Gestalt según la cual el sistema nervioso está orga
nizado en campos neurales que operan en vastas zonas de la corteza, encontró
eco en estos neurólogos. Quienes se oponían a la localización en neurología, lo
mismo que quienes se oponían al atomismo psicológico, formaron un bastión
contra la tendencia elementalista de los conductistas de comienzos de siglo. Al
mismo tiempo, los holistas simpatizaban mucho más con la idea de que la conduc
ta no podía explicarse en forma satisfactoria apelando a los circuitos neurales;
según ellos, era preciso recurrir permanentemente a la explicación psicológica,
y en particular al tipo de explicación global u holística que ofrecían los psicólogos
de la Gestalt.
Así pues, la situación que se presentaba era, según las apariencias, científica-
-mente insostenible. Una escuela de investigadores (los localizacionistas) sostenía
que podía demostrarse cada vez con mayor grado de finura la especificidad del
sistema nervioso en materia de información. Desde su perspectiva, sólo era cues-
.tión de tiempo establecer la adecuada correspondencia de cada función conducta!
en el cerebro del organismo. La escuela rival, no menos respetable y tanto o más
elocuente, consideraba que el enfoque localizacionista ya estaba liquidado: no
sólo se acumulaban las pruebas en favor dél trío constituido por la acción masiva,
la equipotencialidad y la plasticidad, sino que aun en aquellos casos en que los
localizadores podían demostrar los nexos entre las lesiones y las deficiencias, el
significado de esta asociación permanecía oscuro.
Evaluación de lo comprobado
de las ratas en laberintos. Señaló que había comprobado una notoria falta de prue
bas en favor de la localización, y se burló de Halstead diciendo:
He fantaseado que tal vez mi aporte más importante cuando me jubile sea
permitir que me extirpen los lóbulos frontales para ver qué puedo hacer
sin ellos. Ño estoy tan seguro como el doctor Halstead de que esa operación
me impida producir nada interesante. Tenemos escasos datos experimentales
acerca de la posible deficiencia intelectual de un sujeto al que se le hayan
extirpado, sin posteriores complicaciones, los lóbulos prefrontales. (Citado
enJeffress, 1951, pág. 145.)
luz) y otras células complejas que reaccionan ante las líneas que mantienen li
orientación óptima al recorrer el campo receptivo; tal vez esta modalidad de reac
ción se corresponda con una etapa primitiva en el análisis de las formas visuales
que practica' el cerebro. Algunas células sólo responden a datos de entrada pro ve.
nientes de uno u otro ojo, en tanto que otras pueden ser influidas de manera inde
pendiente por ambos ojos. Finalmente, existen células hipercomplejas para las
cuales el límite más eficaz tiene forma de ángulo o, en otros casos, de lengüeta.
Luego de estas demostraciones, ya nadie podía dudar de que el sistema nervioso
: tiene un modo de funcionamiento sumamente específico.
- El segundo fenómeno que derivó de las inquietudes experimentales de Hubel
y Wiesel, no menos importante que el anterior, concierne al papel crítico de
ciertas experiencias tempranas en el desarrollo del sistema nervioso. Si bien hay
capacidades perceptuales y motrices que están, a todas luces, “preconectadas” -
ya en el momento de nacer (de lo contrario, ¿cómo se las ingeniaría el organismo
para sobrevivir?), esto no es en modo alguno válido para todas las funciones (de lo
contrario, ¿cómo podría el organismo ser modificado y aprender?). El sistema
óptico del gato no podría desarrollarse —más aun, algunas partes de él se atro
fiarían—si el animal no fuera expuesto luego de nacer a pautas luminosas. Por otra
.•parte, el gato debe tener contacto visual con un medio variado, moverse dentro de
ese medio y poder hacer uso de ambos ojos. Si sólo está expuesto a pautas lumino
sas horizontales, las células normalmente destinadas al procesamiento vertical se
atrofiarán, o serán “usurpadas” para ejecutar otras funciones. Agreguemos que el
momento en que se producen estas precoces experiencias puede también ser espe-
'cífico. Por ejemplo, si entre la tercera y la quinta semana posterior al nacimiento
se impide que uno de los ojos siga viendo las formas de los objetos, a partir de allí
quedará funcionalmente ciego, por más que luego se le restaure su capacidad nor
mal de registro y formación de imágenes.
Sin duda, la obra de Hubel y Weisel ocupa un lugar central en esta corriente
de investigaciones, pero ha sido corroborada y comprobada por muchos otros
estudiosos. Jerome Lettvin y sus colegas del ITM demostraron pronto que los
receptores del ojo de la rana son también sumamente específicos, y responden a
pequeñas formas redondas que recuerdan a ciertos insectos; de ahí el término
“ detector de insectos” (Lettvin y otros, 1959). Vemon Mountcastle (1978)
estableció que en la corteza sensorial somestésica existen columnas con pautas de
respuesta específicas, análogas a las de la corteza visual. Con registros procedentes
de los lóbulos temporales inferiores de monos, Mortiner Mishkin (1967) compro
bó que ciertas células participan en la codificación de los rasgos visuales de los
objetos, y parecen estar involucradas en actividades mucho más próximas al reco
nocimiento de objetos (y en cambio carecen de la sensibilidad para establecer
formas puntuales de estimulación que excitan las neuronas eñ la corteza visual
primaria). Hay incluso en la corteza del mono células que responden en grado
300 | La nueva ciencia de la mente
La perspectiva molar
Los resultados obtenidos por Sperry sugieren que el sistema nervioso inmadu
ro de los seres humanos tiene una notable plasticidad: el hombre tiene la posibili
dad (o quizá la necesidad) de sacar provecho de aquellas porciones de su sistema
nervioso que, en circunstancias ordinarias, no movilizaría con iguales propósitos.
Cuanto más precoz es el trauma, más probable es que se pueda ejecutar la-función
deseada, con independencia del lugar de la lesión. Incluso aunque un sujeto pierda
en su totalidad el hemisferio izquierdo durante el primer o segundo año de su vida,
será capaz de aprender el lenguaje; en esa época, las zonas pertinentes del hemisfe
rio derecho son lo bastante plásticas o equipotenciales como para asumir tal fun
ción. No obstante, si se le practica la misma operación más tarde —digamos, des
pués de la adolescencia—, la recuperación de la capacidad del habla es mucho me
nor; es muy probable que presente manifestaciones de afasia o quede mudo de
allí en más (Dennis, 1980).
Otros factores influyen también en el grado de plasticidad. En general, los
individuos más jóvenes, los zurdos o los que han padecido alguna lesión cerebral
en los comienzos de su vida, tienen más plasticidad que los que presentan las ca
racterísticas opuestas. De este modo, los datos provenientes de personas diestras
de edad avanzada apoyan la posición localizacionista, en tanto que los provenien
tes de jóvenes zurdos favorecen más a menudo la posición holística. ; .
Estudios efectuados en otros laboratorios con pacientes que presentaban le
sión cerebral aumentaron también nuestra comprensión acerca de la representa- "
ción neural de las capacidades cognitivas (Geschwind, 1974). La obra de Alexan-
der Luna (1966) y sus colaboradores en la Unión Soviética puso en claro-que, con'
el desarrollo, van ganando predominio diferentes centros nerviosos y Se altera la;;v
302 | La nueva ciencia de la mente
jerarquía de las funciones conducíales. Por ejemplo, en los niños pequeños las re
giones sensoriales son las dominantes, mientras que en los de mayor edad, cobran
primacía las cortezas de asociación y las “ regiones planificadoras” de los lóbulos
frontales. Por ende, las lesiones padecidas por estas zonas sensoriales son más leta
les en los sujetos jóvenes, en tanto que las lesiones del lóbulo frontal son más per
niciosas en los maduros.
De acuerdo con los estudios de Luria, ninguna función es cumplida totalmen
te por una región específica; tampoco (como sostenía Lashley) participan todas
las regiones en un pie de igualdad en cada función. Más bien ocurre que en un
comportamiento determinado participan varias regiones anatómicas, pero cada
una de ellas hace una contribución característica e irreemplazable. Así, en el caso
del dibujo, el hemisferio izquierdo es el responsable del dominio de los detalles, en
tanto que el derecho proporciona el sentido global de la forma. De ahí que el tipo
de anomalías que presentan los dibujos de un sujeto revele, en general, el lugar en
que padece una lesión cerebral. Ha quedado atrás, entonces, la afirmación simplis
ta de que uno de los hemisferios cumple cierta función y el otro hemisferio la fun
ción opuesta, y se ha pasado a una postura más elaborada, según la cual cada he
misferio, o cada región dentro de un hemisferio, hace su aporte característico para
una actividad dada.
Mucho se ha escrito acerca de la manera óptima de describir las pautas de pre
dominio de ambos hemisferios. Lo dicho al respecto va desde lo vulgar (el lenguaje
pertenece al hemisferio izquierdo, la espacialidac( al derecho) hasta lo grandilo
cuente (la ciencia o racionalidad pertenece al hemisferio izquierdo, el arte o la in
tuición al derecho); y algunos establecen un distingo acorde con los debates actua
les de la neurociencia (funcionamiento localizado en el hemisferio izquierdo .fun
cionamiento sintético u holístico en el derecho). Lo cierto es que para describir de
manera precisa el modo de operar de ambos —o, más probablemente, para deter
minar que es imposible establecer una dicotomía tan neta— debemos esperar los
resultados de ulteriores investigaciones (Beaumont, Young y McManus, 1984).
Pero cualquiera sea la misión de cada hemisferio por separado, sin duda alguna hay
entre ambos una neta interacción dinámica. Cuando se activa el hemisferio izquier
do (por ejemplo, por los sonidos de la lengua), ello promueve determinadas espe
cies de funciones analíticas y lingüísticas, mientras que cuando se estimula el
derecho, salen a relucir las funciones espaciales y holísticas (véase Kinsboume,
1978).
Si bien, en líneas generales, es preferible padecer una lesión cerebral en los co
mienzos de la vida y no más tarde, para aprovechar así la plasticidad existente en
esa etapa del desarrollo, lo precoz no es siempre lo mejor. Hay por lo menos tres
salvedades que hacer al respecto. En primer lugar, a veces una lesión temprana no
presenta déficits aparentes en el momento, pero sí los produce más adelante en la
vida. Así, las lesiones del lóbulo frontal en un mono joven tal vez no generen nin
gún deterioro inmediato en su funcionamiento pero las secuelas se vuelven eviden-
9. Neurociencia: el coqueteo con e l reduccionismo | 30^
-jes a largo plazo, cuando normalmente deberían madurar las funciones de plani:'
cación o nmémicas de los lóbulos frontales (Goldman-Rakic y otros, 1982; Gold
man y Galkin, 1978). En segundo lugar, cuando una délas zonas del cerebro se hat^
cargo de la otra, la “salvadora” sacrifica a veces su capacidad potencial para cui
plir con sus propias funciones predeterminadas. Así ocurre si el hemisferio dere
cho asume las funciones lingüísticas del izquierdo en el caso de un niño que ha su
frido una lesión en este último: a la larga el niño exhibe deficiencias en materia t
pacial, a raíz de que no dispone de las zonas pertinentes del hemisferio derech
(B.T. Woods, 1980). En tercer lugar, aun cuando una zona del cerebro asuma la
función de la otra, tal vez no lo haga de manera óptima. Los individuos que sói^
cuentan con su hemisferio derecho pueden, en verdad, aprender a hablar su lengi
natal, pero terminan aplicando estrategias lingüísticas diferentes para ello, y se
vuelven comparativamente insensibles frente a ciertos rasgos sintácticos (Dennis
Whitaker, 1976). Para los diestros, al menos, hay una manera óptima de aprendí
,1a lengua, y es la que se basa en las estructuras incólumes del hemisferio izquierdo
que llevan a cabo el análisis fonológico y sintáctico. Las funciones lingüísticas de
sempeñadas por el hemisferio derecho dependen en grado excesivo de faetón
semánticos y pragmáticos; y si bien esta aproximación al lenguaje puede basta-
para la mayoría de las comunicaciones cotidianas, es insuficiente para apreciar dis
tinciones gramaticales sutiles.
Así como ciertas regiones del cerebro parecen predeterminadas para realiza-
ciertas especies de funciones, hay otros argumentos que militan contra una pers
pectiva puramente “plástica” . Los trabajos de-la psicología experimental han de.
cumentado que los organismos están “preparados” para dominar ciertos compo;
iamientos, y en cambio están “mal preparados” para aprender otros. Así, por
ejemplo, las ratas aprenden prontamente a huir o a saltar cuando se les aplica u».
choque eléctrico, pero en cambio tienen enormes dificultades para presionar un
palanca que les permita la huida. El salto para evitar el choque parece una respues
ta natural o “preparada” ; pero si para entrar en una caja, la rata debe primero sa
car la tapa que la cubre, su aprendizaje será lento e incierto. De todo esto paree
lógico inferir que los niños normales están “preparados" para aprender muy rápi
damente su lengua natal, y que al menos algunos están “preparados” para dominar
el sistema de música tonal de su cultura sin necesidad de estar en contacto con é
durante demasiado tiempo; no sería de sorprender que los niños tuvieran grandes
tropiezos para aprender un lenguaje “no natural” para ellos, o un sistema musicai
inventado por algún experimentador diabólico o decretado por un monarca
omnipotente. - ,
¡c - Los grandes debates científicos rara vez se apagan por completo, en especial-
si en ambas concepciones rivales hay un núcleo de verdad (Holton, 1984). Tal vez,
304 | La nueva ciencia de la m ente 9. Neurociencia: el coqueteo con el reduccionismo | 305
sino que más bien puede localizárselos en partes específicas de las redes neurales.
sea éste el caso con la controversia entre localizacionistas y holistas, notoria
desde la época de Descartes y muy estentórea desde el período de Gall. No obs De hecho, algunas de las conductas aprendidas por el caracol abarcan no más de
tante, estudios realizados en los últimos veinticinco años, como secuela del Simpo cincuenta neuronas.
sio de Hixon, han contribuido a acotar esta polémica. En la actualidad se concede Según la explicación de Kandel, el aprendizaje es provocado por una altera
que, al menos en el plano del procesamiento sensorial, el sistema nervioso está es ción en las conexiones sinápticas; en lugar de implicar forzosamente nuevas cone
pecíficamente construido de modo de'responder a determinadas especies de infor xiones, lo corriente es que el aprendizaje y el recuerdo se generen como consecuen-
mación en formas particulares. También se ha probado el “compromiso neural” en ' cia de un cambio en la fuerza relativa de contactos ya existentes. Kandel y sus co
niveles de representación mucho más molares, que incluso abarcan los dos hemis legas mostraron que en esta alteración de la fuerza sináptica cumplen un papel
ferios cerebrales. En este sentido, Lashley exageraba enormemente. Por otro lado, decisivo los transmisores químicos liberados en los terminales de las neuronas.
siguen acumulándose pruebas notables que documentan la elasticidad y plasticidad Así, por ejemplo, si se aplica un choque eléctrico a la cola de una babosa marina,
del sistema nervioso, sobre todo en sus primeras fases de desarrollo. En éstas, aun se libera un neurotransmisor, y los poros de la neurona se modifican de modo tal
los organismos privados de las estructuras neuroanatómicas corrientes pueden que, frente a un impulso posterior, es mayor la cantidad de transmisor liberada;
adaptarse y cumplir con las funciones que se les demandan, a veces sin pagar por así, pues, la próxima vez que se aplica el choque a la cola del molusco, la neurona
ello un precio excesivo. En este aspecto, sigue siendo sostenible la visión de los “recuerda” rápidamente que debe enviar órdenes químicas para retraer el sifón.
holistas y de los propugnadores de la acción masiva. Como conclusión provisional, Kandel resume así su postura acerca del vínculo entre los datos innatos y los
podría decirse que todos aceptan hoy cierto grado de localización, pero dentro de estímulos (inputs) experimentales en ese aprendizaje:
este marco general de acuerdo quedan importantes islas de plasticidad.
Pero si bien los grandes debates rara vez son silenciados del todo, pueden ser La capacidad potencial de un organismo para muchos comportamientos
enmudecidos durante algún tiempo. En nuestros días se dedica mucho menos forma parte intrínseca del andamiaje básico de su cerebro, y en este sentido
energía que antes a la polémica que enfrenta la localización y el holismo (o la es está bajo control genético y evolutivo. Los factores ambientales y el apren
dizaje sacan a relucir estas capacidades latentes al alterar la eficacia de los
pecificidad y la plasticidad), por lo menos en lo tocante al funcionamiento del sis
canales de acciones preexistentes, promoviendo así la expresión de nuevas
tema nervioso; en lugar de ello, los estudios se han volcado hacia un ámbito mu
pautas de conducta. (1982, pág. 35.)
cho más circunscripto. Los neurocientíficos dedican hoy la mayor parte de su
tiempo al estudio minucioso de sistemas específicos de organismos específicos, Gracias a estos trabajos, podemos ahora tener un atisbo —quizás por primera
en la esperanza de que estos sistemas puedan comprenderse por sí mismos y de vez —de lo que significa el aprendizaje en el plano químico y neural. La inquietan
que ese conocimiento contribuya, a la postre, a los debates más amplios sobre las te cuestión que ahora debe abordar la ciencia cognitiva es si, a medida que se des
bases neurales de la cognición —incluida la controvertida cuestión del reduccionis- criban de manera similar otros comportamientos más complejos, habrá o no nece
mo—. De los muchos ejemplos que podrían citarse mencionaré dos, tomados deli sidad de una explicación separada en el plano representacional.
beradamente de distintos niveles de análisis.- y que a mi juicio pueden contribuir
en diverso grado al surgimiento de la ciencia cognitiva.
E l canto de los pájaros
Eric Kandel llena una laguna
Estudios sumamente diferentes, pero no menos sugestivos, fueron efectuados
En los últimos tiempos, Eric Kandel y sus colaboradores de la Universidad de porFemando Nottebohm y sus colegas en la Universidad Rockefeller sobre el canto
Columbia han logrado cerrar lo que antes parecía una enorme brecha: la que existe de los pájaros (Nottebohm, 1970, 1980; véase también Konishi, 1969; Marler y
entre el funcionamiento de la célula nerviosa individual y el comportamiento del Peters, 1977). Muchas especies de pájaros cantan, y es bien sabido que puede reco
organismo (Kandel, 1979). Este equipo de investigadores logró este avance cen nocérseles (y a veces también reconocer subespecies dentro de ellas) por ese canto
trándose en un organismo muy simple, el caracol Aplysia calijorraca, cuyo siste peculiar. Pero ¿de dónde procede este canto, y cómo adquiere su altura, ritmo y
ma nervioso es de fácil descripción y que es capaz de formas simples de aprendiza cadencia característicos?
je, como la habituación, la sensibilización y el condicionamiento clásico. Estudian La respuesta difiere de una especie a otra. En algunos casos, el canto forma
do estos procesos en el caracol, Kandel y sus colegas mostraron que estos aspectos parte del patrimonio congénito; así, las torcazas machos cantan una misma can
elementales del aprendizaje no están distribuidos en forma difusa en el cerebro, ción sin necesidad de ninguna estimulación externa o retroalimentación. Más aun,
306 | La nueva ciencia de ia mente
el pájaro entonará la canción de su especie aun cuando sea sordo desde el naci
miento.
En la mayoría de las otras especies de aves, la ruta que lleva a la adquisición
del canto propio no es tan directa. Lo típico es que se comience por un período
de balbuceo que no llega a ser un canto, seguido por una etapa de plasticidad en
que se repiten o ensayan “sílabas” hasta constituir con ellas breves frases musica
les. Finalmente, antes de cumplir un año de edad, ese canto plástico cede sitio al
trino típico, similar al producido por todos los otros machos adultos normales.
Desde el punto de vista neurocientífico, resulta instructivo que diversas ca
rencias ejercen una influencia predecible en el desarrollo del canto. Los canarios,'
verbigracia, requieren retroalimentación auditiva para su desarrollo normal; pue
den, empero, producir un canto bien estructurado aunque no escuchen la vocaliza
ción de ningún otro miembro de su especie: les basta con su propio canto. En
cambio, para el pinzón son necesarias tanto la retroalimentación auditiva como la
exposición a los cantos de otros pájaros para llegar a producir en plenitud su pro
pio canto normal. Si el pinzón queda sordo durante los tres primeros meses de vi
da, generará un canto anómalo, poco más que un chillido permanente; pero si que
da sordo luego de haber aprendido a carta cabal su trino, ya no se discierne ningu
na falla en su desempeño.
El canto'dé los pájaros és uno de los pocos casos dé lateralización cerebral en
los seres inferiores al hombre. Así como el hemisferio .izquierdo de los seres huma
nos es fundamental para su competencia lingüística, así también el nervio hipoglo-
so izquierdo del pájaro es decisivo para que pueda cantar. Es posible producir
afasia (o amusia {pérdida de ¡a capacidad musical]) en un pájaro destruyendo la
parte izquierda de su sistema nervioso. No obstante, el canario afásico es capaz
de recobrar sus cantos anteriores a esta operación, explotando los conductos ner
viosos homólogos del hemisferio derecho. En este sentido, para la función del
canto los pájaros son más afortunados (a raíz de que su sistema nervioso es más
plástico) que los adultos humanos.
La obra de investigadores como Nottebohm y Kzndel se basa en la premisa
de que mucho puede aprenderse en este campo gracias al estudio minucioso de
un único sistema en un único organismo. Peter Marler, otro pionero de la investi
gación del canto de los pájaros, ha' señalado: “Los estudios sobre el aprendizaje
del canto por los pájaros son lentos y laboriosos, pero creo que a la postre ésta es
la únicá manera én que podremos llegar a una comprensión adecuada del tema que
estamos abordando ( . . . ) a saber [en este caso], la génesis de categorías naturales
en la percepción de los animales y del hombre” (1982, pág. 93).
Por cierto, estas dos líneas de estudio parten de supuestos algo distintos. Kan-
del confía en que investigando la habituación y condicionamiento de los ani ales,
podrá a la larga esclarecer procesos que, según se sabe. se presentan en un amplio
espectro de organismos, incluidos los seres humanos: su premisa es que ciertos
procesos de aprendizaje (que a veces se denominan “horizontales”) están presentes
9. Neurociencia: el coqueteo con el reduccionismo | 307
.;,en todo tipo de contenido, desde el aprendizaje de la música hasta el dominio del
, ' dibujo,-y puede encontrárselos en forma más o menos semejante en muy diversos
í "'. ' Organismos, desde el caracol Aplysia hasta el hombre. Por otro lado, la corriente
K ,íencabeza^ a Por Nottebohm procede con una tónica distinta. Según ellos, el canto
t , ^os P iaros es, a todas luces, una conducta que sólo existe en este tipo de ani
males, por más que pueda quizá tener lazos fllogenéticos con la música elaborada
f i ..‘.por l°s seres humanos o con su lenguaje. De todos modos,.se trata de un sistema
;■/ autónomo que permite diversas clases de manejos experimentales. El interés por
,.el'canto de los pájaros es congruente con la creencia de que gran parte de la acti
v a d cognitiva está “organizada en forma vertical” ; vale decir, que existe undo-
¡mpt*° llamado “canto” que bien puede tener reglas muy diferentes de otros domi-
anJoSjíy lo mejor es comprenderlo en sus propios términos. Cualquier generaliza-
de! canto de los pájaros a otros sistemas de otros organismos —o incluso de
^í¡na«specie de pájaros a otra— sólo exige un estudio, cuidadoso de estos sistemas
fepórjíseparado. En la neurociencia, no menos que en la psicología y en la inteligen-
“¡¿íaiartificia], es discernióle esta tensión entre una concepción “modular” y otra
ípiie^ábona el “procesamiento central” o la “resolución general de problemas” .
fE Enotable éxito de los trabajos de Hubel y Wiesel y sus colaboradores dio re-
Tñóvado^ímpetu a la-creencia en que cada sistema opera a su modo. En 1978,
gpavid Hubel lo expresó con estas palabras: ...... .
' *' _ Nos hemos visto llevados a suponer que-cada región del sistema nervioso
central tiene sus problemas especiales, los cuáles requieren soluciones diver-
-'»ü .ií4sas;.En el caso de la visión, nos ocupamos de contonios, de dirección y pro-
fundidad. En el caso del sistema auditivo,-en-cambieynos enfrentamos ante -
i una constelación de problemas vinculados con la interacción temporal de
sonidos de distinta frecuencia, y es difícil imaginar queun mismo aparato neu-
ral se haga cargo de todos estos fenómenos. ( ...) En lo tocante a los aspectos
'.^•¿^•'STttineipalK del funcionamiento cerebral, no es probable que exista una so-
feáfísK^M’lución magistral única (Hubel, 1978, pág. 28).
n -• .......
En el antiguo debate acerca del grado de localización de las representaciones
en el sistema nervioso de los seres humanos pueden discernirse tres períodos. - -
El primer periodo .es el de los pálpitos científicos. Cuandq.Descartes situó el
310 | La nueva ciencia de la mente
f£
Interrogantes como éstos han sido formulados desde los comienzos mismos de
la filosofía. En verdad, los griegos fundaron en la visión su modelo del saber, y
dedicaron grandes empeños a compren der cómo llegamos a conocer el mundo visi
ble, y de qué manera este conocimiento puede contribuir a nuestro entendimiento
general —o constituirlo—. Ya los presocráticos debatían estas cosas: Metrodoro de
Chíos aconsejaba a sus epígonos desdeñar los datos provenientes de los sentidos y
prestar atención sólo a la creencia; Demócrito, por su parte, admitió que todo
saber descansa en la percepción (Bames, 1979). Platón sostenía que es el alma la
que hace posible la percepción, mientras que a Aristóteles le interesó más descu
brir cómo opera efectivamente el ojo. En tiempos más recientes, los racionalistas
y los empiristas volvieron sobre estas cuestiones: al par que Descartes subestimaba
la importancia de los órganos sensoriales, para los empiristas ellos eran el punto de
partida de todo conocimiento.
Poco después, los hombres de ciencia se sumaron a. estos debates. Probable
mente la mayoría de los psicólogos iniciaron sus reflexiones interesándose por la
percepción, tema en el cual se ha progresado mucho más claramente que en el
esclarecimiento de otros procesos psíquicos. Al repasar la psicología hasta hoy, me
he encontrado con que predominan en ella ciertos-temas: la creencia (que se
remonta a Hermann von Helmholtz) de que el estímulo en sí no posee informa
ción precisa suficiente, y en consecuencia gran parte de la percepción depende de
inferencias inconscientes acerca de las situaciones o escenas observadas; la réplica
de J. J. Gibson, según la cual los sentidos pueden tomar directamente del medio la
información necesaria para la supervivencia; la afirmación de los sensacionalistas,
para quienes la percepción comienza con la detección de unidades o bits elemen
tales de sensación, a partir de los cuales se crean todos los otros objetos y formas
complejas; y la réplica de los guestaltistas de que lo que se percibe en primer lugar
es una forma global, y partiendo de lo general se llega luego a lo particular.
En los debates sobre la percepción participaron dos nuevas corrientes de
investigación. Una de ellas, ya repasada en el capítulo 9, trató de determinar la
sensibilidad de determinadas células nerviosas. Si.se conociera el funcionamiento
de todas las neuronas y series de neuronas, sostenían, ya no habría necesidad de
descripciones del procesamiento perceptivo más abstractas o de nivel superior.
tos. Los aportes significativos para esta labor provinieron de muchos ámbitos, pero
las concepciones precursoras fueron principalmente las de David Marr.
Marr sostenía que, para obtener una descripción tal, no basta con la compren
sión lograda en un solo plano de análisis. Deben describirse las respuestas de las
células neurales, predecir los resultados de experimentos psicofísicos y preparar
programas de computadoras que puedan analizar e interpretar del modo deseado
los datos de entrada visuales (Mam, 1982). En consecuencia, propuso tres niveles
explicativos: el de la teoría computacional, el algorítmico y el instrumental.
Podemos introducimos en estos niveles mediante el ejemplo sencillo de una
10. La percepción del mundo | 325
. caja registradora. Si queremos entender cómo funciona este aparato, tenemos que
preguntamos, en el nivel más abstracto, qué hace y por qué lo hace. Dado que su
tarea es de tipo aritmético, debemos dominar la teoría de la adición, lo cual impli
ca entender la noción de la equivalencia de una pareja de números con su suma,
y apreciar principios como la propiedad conmutativa —según la cual 3 + 4 «
= 4 + 3— y la propiedad asociativa —según la cual (3 + 4) + 5 = 3 + (4 + 5)—.
Esta comprensión de la teoría de la adición pasa a constituir la teoría computado-
mal de la caja registradora.
' En lo tocante a los procesos visuales, el problema análogo consiste en. deducir
las propiedades del mundo a partir de sus imágenes: explicar la visión sea cual
'fuere el mecanismo en que ésta se materialice. Esta teoría computacional muestra
qué es lo computado y por qué motivo, a los fines de la percepción, es útil compu-
' tar ese fragmento de información. En el caso de la visión, especificaría los víncu-
los entre una imagen bidimensional y el mundo tridimensional, así como la forma
en que esa imagen puede interpretarse —las restricciones que posibilitan recuperar
las propiedades de la escena a partir de la imagen correlativa—. Así, supongamos
: que la visión incluye procesos como la recuperación de la forma de un cuerpo que
, gira a partir de imágenes fugaces de él, o la capacidad para la percepción estereos-
cópica (un mecanismo binocular computa la profundidad combinando la informa
ción obtenida desde dos puntos de vista levemente distintos entre sí). Cualquier
teoría computacional debe dar cuenta de estos procesos, dada la información
contenida en la imagen.
-— - No obstante, para que el proceso pueda efectivizarse, hay que concretarlo de
algún modo, y para ello elegir alguna especie de representación de cada una de las
entidades significativas. El segundo nivel de análisis de un proceso implica, en
primer término, seleccionar una representación para los datos de entrada y de
salida del mismo; y, en segundo lugar, establecer un algoritmo (o procedimiento
■formal de manipulación de símbolos) mediante el cual pueda realmente ponerse
en práctica la transformación. En otros términos, este segundo nivel algorítmico
"-determina cómo se efectúa la operación. En el caso de la suma, pueden elegirse
j"? números arábigos para la representación; para el algoritmo se adicionarán en
primer lugar los dígitos menores, y en caso de que la suma supere la cifra de 9 se
'.■pasará a una segunda columna. Tanto las cajas registradoras eléctricas como
¿V-mecánicas adoptan este tipo de representación.
j,,£ n el caso de la visión, el nivel algorítmico tramita las diversas maneras
-”'1’mediante las cuales una función como la estereopsia puede ser efectivamente
representada y ejecutada por algún mecanismo. Marr y sus colegas establecieron
_w-tm elegante conjunto de procedimientos para cóhipútár la visión estereoscópica,
jj-peró luego resultó que éstos no guardaban semejanza alguna con tos procesos que,
aparentemente, utilizaba el cerebro. Marr quería que sus algoritmos fueran consis
te*??^5 con lo que se conoce acerca de la percepción en los animales, y en conser.
326 | La nueva ciencia de la mente
cuencia reemplazó el algoritmo primitivo por otro más coherente con los datos
proporcionados por la psicofísica y la neuropsicología.
El tercer nivel se ocupa del dispositivo que habrá de materializar físicamente
el proceso. Un mismo algoritmo puede implementarse con técnicas muy distintas.
La adición puede llevarse a cabo mediante diversas máquinas mecánicas o eléc
tricas, y también en el cerebro. ,
Cualquier tarea puede ser realizada por diversos algoritmos, y cualquier
algoritmo es susceptible de múltiples realizaciones en un determinado soporte
material [hardware]. Cada investigador decide de qué modo será concretado el
algoritmo, y a muchos estudiosos de la inteligencia artificial no les preocupa saber
cómo logran los seres humanos la percepción visual. El interés de Marr por el nivel
de la realización o instrumentación se vinculaba, a todas luces, a la posibilidad de
crear programas de computadora capaces de analizar efectivamente las escenas.
Esta era la “prueba de existencia” esencial de un algoritmo, su posibilidad de fun
cionamiento. No obstante, como hemos visto, Marr dejó que sus trabajos se
encaminaran según los procedimientos aparentemente empleados por el cerebro
humano —y tal vez lo haya hecho porque estos procedimientos parecen operar
también eficazmente en los aparatos inorgánicos-.
Apuntó Marr que a los científicos les era más sencillo trabajar eh el nivel
algorítmico y en el de la concreción mecánica, ya que se prestan mejor a la experi
mentación; pero, a su entender, lo más importante en la actualidad era abordar
el nivel de la teoría computacional. Esto reflejaba su convencimiento de que la
índole de las computaciones que subyacen en la percepción depende más de los
problemas computacionales que deben ser resueltos por cualquier sistema, que del
soporte físico particular en que se instrumentan las soluciones en los casos más
conocidos.
Marr advirtió que no debía centrarse exclusivamente la atención en la natura
leza de los procesos cerebrales; ni siquiera el conocimiento total de la anatomía
y la fisiología, sostuvo, permitirían comprender por qué las neuronas poseen
campos receptivos. Para entender cómo cumplen realmente su tarea las neuronas
del sistema óptico hay que apoyarse en los principios matemáticos, que involu
cran la interpretación de imágenes. Pero Marr sabía que ninguna disciplina, por sí
sola, podía desentrañar los misterios de la percepción; era un cognitivista cabal,
y declaró:
Tales fueron, pues, los preámbulos teóricos. Una vez establecido el enfoque
general para la comprensión de la visión, Marr y sus colegas se aplicaron a eluci
dar los procedimientos que gobiernan el procesamiento individual de imágenes
visuales ya fueran instrumentadas por una máquina o por algún organismo. Su
objetivo era explicar de qué manera nuestro cerebro llega a computar aproxima
damente las mismas representaciones simbólicas, a partir de variaciones lumíni
cas iniciales desde el tono de los grises. Sintéticamente, describieron una serie de
representaciones que llamaron “ bosquejos” [sketches], y que empezaban con el
tipo más somero y rápido de análisis de la información visual, para culminar
cuando la imagen se veía como un conjunto completo de objetos ordenados en el
espacio. (Véase Marr, 1982 y Rosenfield, 1984, para descripciones más completas
de esto.)
La primera representación era el bosquejo primario', éste ponía de manifies
to las propiedades de la imagen bidimensional, y abarcaba desde los cambios de
intensidad que tenían lugar dentro de una escena (zonas de grises, de brillo relati
vo por comparación con otras de relativa oscuridad) hasta una representación
primitiva de la geometría de ese espacio. La representación siguiente, llamada
bosquejo 2 l/2-D implicaba la aprehensión, por el observador, de la orientación
y profundidad de las superficies visibles. El paso final fue denominado la repre
sentación 3-D, cuyo sistema de coordenadas estaba centrado en el objeto más que
en el observador, e incluía una representación del volumen, del espacio ocupado
por un objeto y no sólo de sus superficies visualizadas, así como un ordenamiento
de formas simples reconocibles de tamaño diverso. Al establecer estos bosquejos,
Marr y sus colegas esbozaban los pasos qué necesariamente debe atravesar
cualquier mecanismo, desde el momento (o circunstancia) en que por primera vez
trata de volver inteligible una escena externa, hasta el momento (o circunstancia)
en que ya ha aprehendido esa escena de un modo bastante verídico.
Si se examinan con mayor detención los primeros pasos del procesamiento
visual, se advierte que están destinados a seleccionar los factores geométricos, la
reflectancia de una superficie, la iluminación de la escena y la determinación d e l.
punto de vista. Este proceso de formación del bosquejo primario abarca varias
fases: captación de los cambios de intensidad, representación y análisis de la
estructura geométrica local, y detección de efectos lumínicos como las fuentes
luminosas, los rasgos salientes y las transparencias. Estas fases reflejan el hecho de
que los cambios de iluminación de una escena se producen en los bordes de los
objetos, y allí es donde más probablemente se modifique el contorno de las super
ficies. Esta fase culmina con una representación que explícita la magnitud y dispo
sición de los cambios de intensidad, permitiéndole al sujeto detectar los límites
de la imagen y su origen. El bosquejo primario consiste en una serie de “manchas”
orientadas en diversas direcciones, y que recuerdan el tipo de rasgos discernidos _
a) una imagen; b) componentes espaciales de su bosquejo primario; c) reconstruc
ción de la imagen a partir del bosquejo primario.
• 1 1 t i"" •
•
—t ** y ...."i'“ s f—
* • 1
• & •»* * i V
U ,.
t:
.
81
’V'
"S I «
•■-M
1 f*
£
« Es prematuro aún evaluar qué fragmentos del programa trazado por Marr
- . habrán de sobrevivir y cuáles deberán ser modificados o suprimidos por entero. La
mayoría de los comentaristas han expresado su admiración frente al programa de
_. investigaciones de Marr y su respeto por lo que pudo lograr con sus colegas en tan.
pocos años; pero, a la vez, no han opinado demasiado sobre los aspectos menos
sólidos de sus esfuerzos. Conversaciones mantenidas con diversos eruditos,en
tema de la visión han revelado que coinciden en ciertas discrepancias, «a ■jtírinú.z
- — - Como muchos otros pioneros, Marr expresó vigorosa y_ nítidameiite sus.
“ convicciones y no vaciló en criticar a los demás. Como reacción a esto, nada,-
i .’ sorprendente, los comentaristas subrayan los lazos existentes entre los aportes de
! ' Man y los de otros estudiosos (por ejemplo, Hom, 1975), así como entre los
334 | La nueva ciencia d e la mente
Según Gibson (1950, 1966, 1979; véase también Turvey y otros, 1981),-los
organismos están conformados de modo tal, y viven en un mundo conformado de
modo tal, que adquieren sin dificultades la información que necesitan para sobre
vivir y prosperar. En particular, nuestros órganos sensoriales han sido planeados
para recoger la información del mundo externo. Así, al. captar la tercera dimen
sión, la información espacial pertinente se presenta simplemente a la mirada sin
necesidad de inferir distancias o de correlacionar los datos entre el ojo y la mano;
así pues, la clase de inferencias inconscientes que, desde Helmholtz en adelante,
propusieron los científicos son prescindibles. Al principio de la vida, esta informa
ción es comparativamente grosera, pero con el correr del tiempo y la adquisición
10. La percepción del mundo ( 335
de experiencia se vuelve cada vez más fina; lo cierto es que en todos los casos es
verídica, desprovista de indicios falsos y suficiente para sobrevivir. La información
está allí en el mundo, disponible, y sólo es menester recogerla; no hay que operar
sobre ella ni procesarla; tampoco es menester basarse en ningún conocimiento
anterior, ni en modelos mentales o esquemas interpretativos (Gibson, 1967).
Todos los problemas de la psicología de la percepción —y aun, quizás, todos los
problemas de la psicología en general—podrían ser satisfactoriamente dilucidados
con tal que los investigadores entendieran de qué manera las personas atienden a
lo que está ante sus ojos.
r ¿En qué datos se basó Gibson para proponer esta concepción tan radical
mente simple de la percepción? Durante muchos años de experimentación, lo
impresionó mucho el tipo de información que podía obtenerse exclusivamente a
través del sentido de la vista. De acuerdo con la teoría empirista clásica, se consi
deraba que el sentido del tacto era fundamental en lo que atañe a la capacidad dei
organismo para percibir la profundidad; no obstante, Gibson demostró que h
información óptica basta para esta discriminación de la profundidad. Un indica
dor importante es el gradiente de la densidad de la textura. Tomemos el ejemplo
de un trozo de papel o de linóleo dividido en cuadrados regulares: la densidad di
' la textura se aprecia como invariante en toda su extensión. En la medida en que e’
sujeto mira fijamente hacia adelante (o hacia abajo) la superficie de la hoja o del
piso, la densidad de textura no se modifica; pero si la superficie-estímulo se inch
na, o si la mira en diagonal o de soslayo, dicha densidad cambia entre el extrem
más próximo y el más alejado, y el observador recibe de sus propios ojos informa
ción precisa e inequívoca acerca de la distancia a que se encuentra cada parte dei
estímulo (Hochberg, 1978). Así pues, hasta atender al gradiente de textura pai
obtener la información necesaria sobre el tamaño de los objetos situados sobrp
una superficie o el ordenamiento respectivo de varias superficies, sin necesidad de
recurrir a ninguna otra modalidad sensorial, ni al cálculo de proporciones, ni
cualquier otra inferencia inconsciente.
Gibson subrayó además el destacado aporte que hacen a la percepción los
movimientos de la persona en el mundo. Si el sujeto se ve obligado a estar sentad
pasivamente, cualquier escena le resultará ambigua; pero si es libre de caminar f
derredor, los cambios que se producen en las disposiciones ópticas quedarán liga
dos en forma precisa a los movimientos voluntarios de su cuerpo. Y si persist
en su exploración, obtiene habitualmente información que, a su vez, da lugar
otra información más significativa aun. Por otra parte, los cambios en la disposi
ción óptica provocados por sus movimientos le permiten imaginar qué está suce
diendo dentro de su campo visual. De este modo, los individuos que exploran
entorno en forma activa sacan partido de un sistema perceptual que brinda H
máxima información posible acerca del espacio y la distancia. _ . .
Basándose en estas y muchas otras observaciones y consideraciones, Gibs
llegó finalmente a abrigar un escepticismo extremo sobre todo el enfoque comjv*'-
336 | La nueva ciencia de la mente
individuos son capaces de actuar en forma apropiada en él medio que los rodea
porque formulan inferencias acerca de lo que ven, y porque aplican directamente
a sus perceptos sus creencias, objetivos, propósitos y otros estados intencionales.
Como puntualizan Fodor y Pylyshyn, no basta con percibir directamente que
una piedra puede utilizarse como arma (porque es “asible” y “arrojable” ): necesi
tamos saber si la captación de esa propiedad se produce sin inferencias. Frente
al sujeto percipiente no hay información “neutral” : o bien la información está
en el mundo pero él no tiene acceso a ella, o bien es interpretada por el sujeto y
en consecuencia ya no puede considerársela neutral (Fodor, 1984).
Así, cuando Gibson se refiere al‘hecho de que la luz transmite información
respecto de un cierto esquema espacial, en verdad está refiriéndose a relaciones
semánticas, ya que la información es sobre algo; pero no nos indica cómo
reconoce el sujeto dichas relaciones semánticas. A juicio de Fodor y Pylyshyn,
frente a la pregunta de cómo se pasa de las propiedades de laluzalas propiedades
del esquema espacial hay una sola respuesta concebible: por mediación de la
inferencia. Lo acuciante para el cognitivista es comprender las consideraciones
empíricas pertinentes para decidir a cuáles propiedades de la luz el sujeto atiende,
interpreta y luego sobre esa base actúa. Según Fodor y Pylyshyn, el hecho de que
Gibson dedicara toda su vida a la percepción visual le hizo subestimar las dificulta
des para construir una psicología cognitiva que prescinda de la representación
mental. Las relaciones perceptuales prototípicas son extensionales: tienen que ver
con la información de que se dispone acerca de las características del medio
ambiente, como las presentes en una imagen. Quizás aquí la necesidad de represen
taciones intemas y de inferencias sea menos patente; pero las relaciones cognitivas
prototípicas —como el abrigar creencias o expectativas, el pensar, etc.—son inten
cionales, y para explicar esta intencionalidad es indispensable apelar a las construc
ciones de la representación mental. Hay una enorme diferencia entre ver x, y ver
que x es como y ; para la psicología cognitiva, lo importante es la capacidad de
ver algo como una entidad: una piedra como instrumento o arma, o un taburete
allí donde sólo hay una mancha.
Fodor y Pylyshyn (1981) llegan a la conclusión de que se necesita una
descripción independiente del significado de una representación, como lo exige
la “postura gobernante” , o bien la especificación de una propiedad, como lo
requiere Gibson. El primer problema es viable, ya que el significado de una repre
sentación puede quizás reconstruirse por referencia a su función; mientras que
Gibson no da pista alguna sobre el modo de establecer una propiedad, ni explica
de qué manera una configuración luminosa puede especificar jamás esas propie
dades interpretadas. Así pues, “allí donde la corriente del Establishment ofrece,
al menos, una piadosa esperanza, la corriente gibsoniana sólo nos ofrece un
callejón sin salida” (Fodor y Pylyshyn, 1981, pág. 192). Los errores vinculados a
la inferencia, a las representaciones mentales y a la intencionalidad son, entonces,
aspectos de un mismo error general. c
340 | La nueva ciencia de la mente
Frente a un ataque tan vigoroso del trío de investigadores del ITM compues
to por Ullman, Fodor y Pylyshyn,* cabría esperar que los adeptos de Gibson se
replegaran o atrincheraran en silencio. Nada de es<5. En sus comentarios sobre el
artículo clave de Ullman en The Behavioral andBrain Sciences, y como respuesta
frente al artículo original de Fodor y Pylyshyn, más extenso aun, Michael Turvey
y Robert Shaw, dos psicólogos gibsonianos de la Universidad de Connecticut,
señalaron que los cogoitivistas se habían equivocado al caracterizar su posición.
Para empezar, recordaban hasta qué punto la obra de Gibson había esclarecido
cuestiones fundamentales de la percepción y contribuido a explicarla, así como el
comportamiento de ujj amplio espectro de organismos que se desenvuelven en
una gama muy amplia de ambientes. El movimiento se demuestra andando —afir
maban—, y rechazaban de plano la noción de que la teoría de Gibson era tan
vacua como la de Skinner; luego se envolvían en el manto chomskiano, al decla
rar: "Del mismo modo que Chomsky se apoyó en la regularidad y facilidad de la
adquisición de la lengua natural para justificar que el lenguaje sea considerado un
objeto de estudio especial, así también Gibson y sus seguidores han defendido la
importancia de hacer justicia a la percepción efectiva y natural”. (Turvey y otros,
1981, pág. 239.)
Según Turvey, Shaw y sus colaboradores (grupo al que de ahora en más alu
diremos abreviadamente como “Turvey y Shaw” ), el enfoque ecológico de Gibson
procura dilucidar cómo aprehende un organismo su medio ambiente y controla
sus acciones con respecto a él. Dicho enfoque se centra-decididamente en las
relaciones entre el organismo y el medio, jamás en lo que podría estar sucediendo
dentro de la mente del organismo. Según ellos muchas cuestiones pueden simple
mente dejarse de lado: para Gibson, la “toma de conciencia” [awareness] es
siempre “toma de conciencia de alguna propiedad” , y por ende no hay por qué
postear inferencias o cálculos simbólicos. Es secundario saber en qué consiste
la percepción, si debe interpretársela como un juicio, si es directa o indirecta, y
cómo se inserta la inferencia dentro del esquema general de cosas.
Volviendo contra Fodor y Pylyshyn las argumentaciones qué éstos habían
desarrollado, el equipo conducido por Turvey llegó a la conclusión de que las
concepciones del EstabUshment no estaban suficientemente delimitadas, y habían
cargado sobre la inferencia un peso que ésta, lisa y llanamente, no podía soportar.
En su lugar, Turvey y Shaw defendían una concepción de la ley natural que pos
tula relaciones significativas entre los organismos y su medio. Por “ley natural”
se referían a principios científicos —en este caso, leyes que explican por qué
ción a esto, según Turvey y Shaw.la escuela ecológica se inclina en favor de las
leyes naturales y no de las reglas mentales (o computaciones); en favor de las pro
piedades que efectivamente se dan y no de sus representaciones; en favor de las
facilitaciones y no de los conceptos. En vez de tra tar de llenar de propiedades la
cabeza de los organismos, la escuela ecológica mantiene esas propiedades en el
lugar que les corresponde: el mundo natural. En suma, los ecologistas consideran
fundamental para su ciencia el descubrimiento de las leyes naturales que rigen la
relación del organismo con su medio, y no de las leyes cognitivas que establecen
las operaciones efectuadas con las representaciones mentales.
Perspectivas contrapuestas
Según los ecologistas, tenemos ante nosotros dos concepciones que contras
tan agudamente entre sí. La postura del Establishment sobre el problema de la
intencionalidad convoca esta imagen: el organismo (por ejemplo, el cangrejo
ermitaño), cuando se siente acosado por el hambre, se desplaza llevado por un
cierto concepto mental acerca del alimento, en busca de algo que se equipare con
ese concepto; o bien (por ejemplo, el bígaro arborícola de los pantanos), frente al
peligro inminente de una crecida de las aguas, se desplaza llevado por el concepto
mental de que debe treparse a algo, y busca entonces en su entorno alguna planta
que cuadre a ese concepto. El enfoque ecológico, en cambio, convoca una imagen
muy distinta: la de un organismo, que, en cada ocasión, se desplaza en el contexto
............ de una serie de leyes interconectadas,' en lugar de otras. Frente al hecho de que el
alcatraz o planga pueda zambullirse en el agua y recoger con toda precisión el
pez que busca hambriento, la escuela ecológica se interroga acerca de las diversas
leyes que rigen el comportamiento del ave, y averigua cómo concuerda su zambu
llida con alguna ley. Esta última imagen expresa la creencia de que la intenciona
lidad tiene una base natural; no sucede así con la posición del Establishment. (Tur
vey y otros, 1981, pág. 299.)
Según Turvey y Shaw, aquí está en juego un problema más vasto, que perte
nece a la filosofía de la ciencia: ¿las uniformidades observadas en la naturaleza sor.
reflejo de un marco de referencia concreto de leyes subyacentes, o más bien un
insidioso invento de la mente humana? Turvey y Shaw critican la arrogancia de
Kant cuando sostuvo: “el entendimiento no extrae sus leyes de la naturaleza,
sino que se las impone” (1981, pág. 299), y prefieren inferir las limitaciones que
t , fijan la biología y la física, y no tomadas del dominio más escurridizo de la mente
_ humana. Estos investigadores optan por creer que existe un orden natural y que
el papel del científico consiste en descubrirlo, del mismo modo que el papel del
T organismo es descubrir en su medio las propiedades naturales que le darán todo lo
;k que necesita saber.
« , Los gibsonianos atacan al Establishment por su concepción de la verdad cien-
10. La percepción del mundo | 343
tífica. Tanto Gibson como sus críticos están empeñados en averiguar de qué
manera se producen la percepción y la cognición; pero, es más probable que los
primeros busquen la información decisiva en el ambienté y en la relación que el
organismo mantiene con éste, en tanto que los cognitivistas del Establishment
■atienden en cambio a los presupuestos y tendenciosidades inherentes al organis
mo, y a la forma en que la información proveniente del mundo es transformada o
reconstruida por él al aprehenderla.
Se dirá que éstas son simplemente dos perspectivas sobre una misma situa
ción básica: una presta mayor atención al ambiente, la otra al organismo; pero
ambas tratan de explicar en forma paralela el mismo conjunto de fenómenos.
También sería posible dividir el territorio que debe ser explicado, dejando en
manos de ecólogos la percepción simple, en las de los que sostienen la postura
del Establishment, las inferencias más complejas. De vez en cuando, los dos
bandos adoptan esta aptitud conciliadora; pero en general el abismo entre ellos
parece muy profundo. Los mismos términos que la posición del Establishment
considera centrales (intenciones, inferencias, esquemas) son rechazados por
los gibsonianos como inútiles; en tanto que la terminología predilecta de estos
últimos (facilitaciones, efectividades, recolección de información) es para los del
Establishment vana o insuficiente. Y difieren, además, sus posiciones científicas
fundamentales: la de Gibson refleja su creencia en el mundo real tal como es, y afir
ma que toda la información se halla allí y el organismo simplemente debe sintonizar
se con ella; mientras que la del Establishment refleja la creencia en las fuerzas cons
tructivas de la mente, frente a la cual el mundo externo no es más que un desen
cadenante de actividades y operaciones en gran medida inherentes al organismo.
Según cuál de estas concepciones cobre m ayor imperio, el aspecto que adopta
rán los estudios cognitivos en el futuro será muy distinto.
Desde cierto punto de vista, la disputa entre el Establishment y la escuela
ecológica puede ser deprimente. Henos aquí, dos milenios después de las prime
ras discusiones acerca de la percepción y varios siglos después de iniciados los
debates filosóficos entre empiristas y racionalistas, ¡y los científicos de vanguar
dia siguen discrepando en tom o de los puntos esenciales! Aunque la polémica
actual no guarda una equivalencia directa con las antiguas —entre nominalistas y
realistas, entre empiristas y racionalistas, entre la inferencia inconsciente, el re
gistro sensorial y la “ recolección” de la información pertinente—, los temas son
ya bastante trillados y las argumentaciones resultan tan manidas que es como para
cuestionarse si, en verdad, ha habido algún progreso.
No obstante, cuando se va más allá de estas declaraciones (y ello ocurre con
poca frecuencia), se comprueba que el acuerdo es mayor. Sin duda alguna, ambas
¿escuelas tienen el convencimiento de que en las últimas décadas ha aumentado
nuestro saber acerca de los mecanismos de la percepción. Ahoracsabemos mucho
más que hace cincuenta años sobre cómo se produce ésta, y debe acreditársele
v gran parte de este aumento de nuestro saber al propio Gibson. Las discrepancias.
344 | La nueva ciencia de la mente
' d: La btra tendencia reciente, que quizás contribuya a moderar la disputa entre
-Gibson y el Establishment, entronca netamente dentro de la tradición que va de lo
particular a lo general. Me refiero a una nueva oleada de tentativas, dentro del
......campo de la inteligencia artificial, por estudiar el proceso de la percepción visual.
¿Inspirados en el ejemplo de Marr, pero apartándose de éste en aspectos significa-
l ’ tivos, numerosos científicos están hoy investigando los sistemas de procesamiento
' 'visual según modelos que los asimilan estrechamente al sistema nervioso de los
* ^ "primates (Ballard, Hinton. y Sejnowski, 1983; Brown, 1984; Feldman, 1981;
.... Grossberg, 1980; Hinton y-Anderson, 1981; Hinton, Sejnowski y Ackley, 1984;
Hofstadter, 1983; Rumelhart y McClelland, 1982; Waldrop, 1984). Estos enfoques
- - L-que' han recibido diversos nombres: “computación visual en paralelo” , “ neo-
"ásociacionismo” , “neoconexionismo” o “sistemas de procesamiento paralelo
f -masivo” (SPPM)— parten de una crítica a la simulación computacional estándar
de la visión que se basa en el procesamiento simbólico serial “al estilo de von
Neumann”. Según estos enfoques, tiene mucho más sentido simular la visión
¿r.íí imediarite máquinas (materiales o virtuales) que abarquen muchos procesadores
- - - ^independientes (quizás hasta un mlllóñ), los cuales efectúan en cada momento
* “ ' -múltiples procesos. Estos sistemas en paralelo llevan el esquema de Marr mucho
más allá de lo que éste mismo reconoció expresamente. A la idea de que diferentes
módulos efectúan sus propios análisis separados, se agrega ahora la de muchas
~1_L_unidades que operan e intercambian información de un modo análogo a las células
cerebrales o columnas de células de descarga simultánea. La computación se reali
za mediante las interacciones excitatorias e inhibitorias entre una red de unidades
relativamente simples, semejantes a la neurona, que rivalizan y cooperan entre sí
. de modo tal que algunas de ellas son activadas y otras suprimidas. A la postre,
- ¿ merced a las propiedades estadísticas del conjunto, esta red se afinca en un estado
; ' que refleja su “tarea” particular (por ejemplo, la percepción de una imagen deter-
* "".minada).
parecen más cercanas al tipo de búsquedas y decisiones que los organismos deben
efectuar en un mundo natural complejo, y con frecuencia caótico.
Una característica importante de los SPPM es que prescinden de algunos de
los elementos básicos de la inteligencia artificial, tal como éstos son habitualmente
concebidos, y que tanto molestaban a Gibson. En la concepción clásica de Newell
y Simón, un elemento central era la postulación de'estructuras simbólicas sobre las
cuales las operaciones se cumplían en un orden determinado, como consecuencia
de una decisión. En este nuevo enfoque es posible prescindir por completo de
cualquier noción de procesamiento simbólico y, en su lugar, establecer un modelo
más directo de la percepción, consistente en meras neuronas conectadas con otras
neuronas y aplicadas a funciones específicas. Ya no es menester que el conoci
miento esté almacenado en un lugar aparte; el conocimiento (y aun la “inteligen
cia”) es simplemente algo intrínseco a la fuerza y adecuación de las conexiones
establecidas entre procesos simples semejantes a los neurales. Y en verdad, los con
ceptos mecánicos que entraña este nuevo enfoque guardan provocativa analogía
con el cerebro de los primates.
En cierto sentido, el enfoque del procesamiento en paralelo parece un retroce
so hacia los albores, o incluso el período de gestación, de la ciencia cognitiva. El
tipo de redes neurales que se pretende simular guarda estrecha semejanza con las
que atrajeron la atención de McCulloch y Pitts hacia las relaciones entre el sistema
nervioso y las proposiciones del cálculo lógico. El afán de establecer un modelo
directo del cerebro nos recuerda los primitivos intentos de fabricar computadoras
que efectivizaran las “congregaciones de células” y las “secuencias de fases” de
que hablaba Hebb. Estos modelos presentan un aspecto estadístico “endemonia
do” y la clara ausencia de. “procesos ejecutivos” de control, en contraste con los
programas de reducción lógica y gradual de las diferencias, perfeccionados por
Newell y Simón con su Resolvedor General de Problemas; no obstante, a raíz
del mayor rigor con que son especificadas las redes y la mayor comprensión de los
problemas involucrados en el procesamiento de las imágenes, puede considerarse
que estos enfoques son una síntesis provisional entre la postura clásica y la de
Marr, y no una mera regresión. El hecho de que varios de los algoritmos hayan
logrado simular con éxito diversos aspectos de la percepción visual, y de que el
funcionamiento de estos sistemas parezca compatible con lo que se conoce acerca
del sistema visual de los primates, nos hace abrigar la esperanza de que, a la larga,
estos sistemas en paralelo puedan ofrecer simulaciones razonablemente completas
de la percepción visual primaria.
Pese al entusiasmo que generaron en los últimos tiempos estos sistemas SPPM,
dejan sin responder muchas preguntas. Si bien es cierto que pueden lograr mucho
más en un lapso breve, la velocidad, por sí sola, no asegura la comprensión: siguen
sin debida respuesta cuestiones fundamentales sobre la naturaleza de la percepción
■y de otros sistemas. Ni la velocidad ni la mera fuerza pueden discernir cuestiones
básicas de computación y definición; quedan en pie enigmas acerca de la forma en
10. La percepción del mundo | 347
^ 4 - ' Asumir una postura conductista frente a otros organismos no es, después de
todo, un dislate: si no se tiene acceso a las experiencias y sensaciones internas de
un animal o de otro ser humano, tal vez sea prudente suspender el juicio acerca
: ~r de tales experiencias, y ocuparse sólo de las actividades manifiestas, o al menos de
- .. las fácilmente mensurables. Ahora bien: al contemplar los propios procesos psíqui
cos, la perseveración exclusiva en el comportamiento manifiesto parece injustifi
cable. Un psicólogo puede sentirse poco inclinado a atribuir imágenes, alucinacio-
ñés-o sueños á otros individuos! pero negarlos en su propia experiencia fenoménica
sería un autoengaño, una duda que el propio Descartes habrfa descartado. Y una
vez que se han aceptado las imágenes propias, surge un nuevo enigma: ¿puede uno
seguir negándose a creer que los demás también las tienen?
: v:r. js]0 es de sorprender, en consecuencia, que desde los griegos en adelante la
mayoría de los estudiosos de los procesos mentales discriminaran para su estudio
~r - la capacidad humana de convocar “en el ojo de la propia mente” diversos objetos,
escenas y experiencias —entidades que no están presentes en el entorno, y que
¡ quizás jamás existieron—, Al comienzo los filósofos, luego los psicólogos especu
lativos, y por fin la primera generación de psicólogos experimentales, todos ellos
J fueron proclives a explorar las imágenes mentales.
«?»r-¿Y de dónde proviene este interés por las imágenes? Vero palpar el mundo de
los objetos puede ser fascinante cuando se piensa en ello, pero una personapuede
■ ” transcurrir toda su existencia sin reflexionar ni un solo momento acerca de tales
experiencias: son tan evidentes como la prosa que hablaba sin saberlo el burgués'
5sr_gentilhombre de Moliére. Ahora bien: cuando .se trata de aquellas experiencias
■súgfT- que, por vividas que sean para uno mismo, no son accesibles a otros seres, se plan-
_ tean interesantes interrogantes. No es difícil entender qué uno debe estar
350 | La nueva ciencia de la mente
equipado para reaccionar frente a las cosas que lo rodean, ya que de otra manera
le sería imposible sobrevivir; ¿pero qué finalidad cumplen experiencias que son
completamente privadas? ¿Es éste un proceso adaptativo o puede ser perjudicial
para el individuo? ¿Por qué se sueña? ¿Puede un sujeto imaginar algo, y en caso
afirmativo, cuáles son los límites de su imaginación? ¿Las imágenes se producen
del mismo modo que la percepción normal, activando estructuras perceptuales por
medios internos en lugar de hacerlo a través de un estímulo, o bien son goberna
das por diferentes procesos mentales? ¿En qué medida es posible ejercer control
sobre las propias imágenes, o influir en las imágenes ajenas?
Para los primeros psicólogos el estudio de las imágenes interiores ocupó un
lugar central. Los seguidores de Wundt sondearon en sus propias imágenes y anali
zaron concienzudamente los informes de sujetos adiestrados acerca de las suyas.
Y sin embargo, menos de un cuarto de siglo después ya se planteaban graves dudas
sobre la posibilidad de que las imágenes mentales fueran un tema digno de figurar
en las publicaciones psicológicas cultas. Merced al escepticismo de la escuela de
Wurzburgo, se subrayaron los aspectos más efímeros y menos confiables de las
imágenes. No todos las tenían —se recalcó—, y aquellos que las indagaban median
te su introspección no lo hacían siempre del mismo modo. No existía un proce
dimiento confiable para definirlas en una situación experimental, ni se había
alcanzado ningún acuerdo acerca de lo que era la experiencia imaginal o imagina
ria. Sin duda alguna, ninguna ciencia nueva debía postular un concepto tan vago
y conf uso como su principal construcción mental, y mucho menos como explica
ción del modo en que la gente piensa. Por tales motivos, en la psicología acadé
mica respetable el espectro de la imagen fue exorcizado durante medio siglo.
_ Pero a comienzos de la .década de J 9.70, ..cuando el conductismo ya estaba
declinando, los psicólogos informaron acerca de ciertos descubrimientos inexpli
cables o poco menos si no se acudía a las imágenes (Paivio, 1971). Tal vez los estu
dios más espectaculares en tal sentido fueron los llevados a cabo por Roger She-
pard y sus colaboradores en la Universidad de Stanford. En una investigación muy
frecuentemente mencionada, a la que pasé revista en el capítulo 5, él y Jacqueline
Metzler (1971) pusieron a los sujetos frente a dos figuras geométricas solicitán
doles que indicaran, lo más velozmente posible, si las dos eran representaciones de
un mismo objeto desde distintos puntos de vista. Lo curioso es que la dificultad
de la tarea (medida por el tiempo que llevaba responder) demostró ser fácilmente
predecible en función del ángulo en que había sido rotada la segunda figura. Por
ejemplo, si ésta había sido girada 80 grados, al sujeto le llevaba más tiempo indicar
que era idéntica a la primera, que si había sido rotada 50 grados; y si había sido
rotada 100 grados, resultaba aun más difícil para el sujeto establecer la identidad
entre ambas figuras. Era tentador concluir de esto que los sujetos hacían rotar
mentalmente las figuras, y, que cuanto mayor era el ángulo de estas rotaciones,
mayor también el camino que debían recorrer para alcanzar la respuesta correcta.
Por lo demás, ésta no era una pura conjetura, ya que los propios sujetos corrobo-
11. Imágenes mentales: ¿una creación imaginaria? | 351
rpron que era así. Lo razonable —en verdad, casi ineludible— era concluir que
los seres humanos generan imágenes mentales de estas formas geométricas y las
hacen rotar a lo largo de un espacio psíquico todavía no definido.
Según Stephen Kosslyn (1980) —tal vez, el principal estudioso contemporáneo
de las imágenes psíquicas—, los hallazgos de Shepard causaron sensación en la co
munidad de la ciencia cognitivista. Sus notables pruebas eran sistemáticas y
parecían reflejar una capacidad básica dél sistema de la cognición. Además, esas
escurridizas imágenes internas desembocaron en una ley psicofísica simple pero
muy sólida: el tiempo que le lleva al sujeto juzgar la identidad (o falta de identi
dad) entre las imágenes es una función monótona de la distancia física entre
ambas formas. Así, uno de los constructos teóricos menos tangibles de la psico
logía había dado por resultado una ley científica de llamativa precisión.
Había otras razones para entusiasmarse. A la luz d élo establecido por She
pard tenía sentido concebir que el individuo llevaba imágenes en su cabeza. El
nunca empleó esta expresión, que de todos modos no tiene una interpretación
sensata; pero sí hizo'creíble la idea de una modalidad análoga de representación
mental, capaz de captar algunas de las relaciones de proximidad que también
pueden percibirse en el mundo físico. Los resultados obtenidos por Shepard
cuestionaron los empeños que a la sazón se efectuaban para explicar todo el
pensamiento en función de una sola.especie de mecanismo computacional: el de
la computadora digital serial, que procesa una'sola clase de información. En
toda esta época, lo típico había sido sostener qúe la información está represen
tada en el cerebro bajo la forma de listas o redes de información proposicional;
pero esta idea —la de que todo lo que conocemos se .compone de listas o de
proposiciones— parece por entero insuficiente para dar cuenta de los fenómenos
y descubrimientos vinculados con la rotacióh mental. Más sentido tiene suponer
que el cerebro recorre una serie ordenada de estados, los cuales se asemejan a los
procesos ordinarios que se producen cuando se observan estímulos físicos en el
mundo. Las imágenes debían considerarse por sí mismas, y no entendérselas como
una versión críptica de la mediación verbal o de la manipulación de símbolos. Tal
vez había dos formas separadas, pero igualmente válidas, de representación men
tal; y el estudio de esta modalidad imaginal, menos conocida, podría contribuir
quizás a aclarar algunas de las etapas posteriores de la percepción visual, con una
perspectiva distina de la neurológica o la ecológica.
enfrentaba con la situación real concreta, pero no si se les pedía imaginar las
circunstancias que habitualmente los provocan. Esta última línea de investiga
ción corroboró la autonomía de las imágenes. Si los individuos siempre obraran
de acuerdo con su conocimiento —vale decir, si sólo utilizaran imágenes en aque
llos casos en que pensaban que debían hacerlo—, no'habrían exhibido estos
efectos paradójicos.
Una vez demostrado, con una enorme cantidad de pruebas, que ciertos resul
tados se debían indudablemente a alguna forma de imagen mental, Kosslyn y
sus colaboradores elaboraron una teoría amplia de esta capacidad. Si bien no
fueron tan temerarios como para afirmar que los seres humanos “tienen figuras
en su cabeza” , sí defendieron la noción de que existe una forma “ cuasi figurativa”
de representación mental llamada “imagen” . Y sostuvieron que esta forma de
representación mental es tan importante como la forma proposicional, a la que
‘.se apela más habitualmente para comprender la cognición.
Aquí la historia se complica. ■Muchos psicólogos y otros cognitivistas se
avendrían a restituir la imagen a su léxico y aun a utilizarla como “construcción
explicativa circunscripta” de ciertos hallazgos confiables; pero son mucho más
■prudentes si se trata de entender la imagen como una propiedad básica de la
■cognición humana, una forma primaria de simbolizar o representar la informa-
■' >ción. Después de todo, si se permite que un concepto tan escurridizo como el
ájl (de imagen opere como explicación psicológica, ¿con qué fundamentos se habrá
de excluir a otros “candidatos”? Por su parte, también los filósofos comenzaron
a inquietarse: ¿que significa tener una imagen o extraer información de ella?
¿Qué quiere decir “tener una imagen en la cabeza”? (Block, 1981a).
• Según Kosslyn, las imágenes se coipponen de dos elementos principales: la
representación dé superficie es-la entidad cuasi figurativa de la memoria activa,
acompañada por la experiencia subjetiva (el término es de Kosslyn) de formarse
una imagen. Estas imágenes se asemejan a las visualizaciones producidas en un
tubo de rayos catódicos por un programa de computadora que opere sobre los
datos almacenados. En otras palabras, las imágenes son como visualizaciones
espaciales temporarias en la memoria activa, que se generan a partir de repre
sentaciones más abstractas alojadas en la memoria de largo plazo. . -
. Estas representaciones abstractas originarias constan de proposiciones- y
de otras clases de información no imaginal, como la que encama en los conceptos.
Por consiguiente, en la generación de imágenes interactúan los recuerdos des
criptivos (semejantes a un lenguaje) y los figurativos. Pero la imagen cuasi-figura
tiva no es meramente un concomitante epifenoménico de un procesamiento no
figurativo más abstracto. Más bien, lo que ocurre es que el sujeto, basándose en
m
»$- su memoria de largo plazo, puede generar imágenes, fragmentarlas de diversas
ifp maneras, someterlas a distintas transformaciones y clasificarlas en categorías
^semánticas (por ejemplo, en una determinada configuración imaginal puede verse
la nariz de un ser humano o la forma del Estado' de New Hampshire). Kosslyn
354 | La nueva ciencia de la mente
sus trabajos siguen siendo controvertibles, así como muchas de sus postulaciones.
No obstante, apoyándose en trabajos -previos de Shepard, Paivio y otros investi
gadores, Kosslyn ha convertido el estudio de las imágenes en un tema respetable
dentro de la ciencia cognitivista y ha esclarecido facetas decisivas de esta moda
lidad de representación mental. Las imágenes ocupan ahora un lugar central en
todo mapa cognitivo de la disciplina. '
barios como postimágenes, acerca del cual nada saben quienes no se dedican a la
psicología (Pinker y Schmidt, 1978). Pero a despecho de su ignorancia, los sujetos
a los que se solicitaba imaginar el fenómeno describían exactamente las mismas
postimágenes que otros individuos a los que se enfrentaba espontáneamente
con esa escena en la “vida real”. Por último, vino en apoyo de la posición general
de Kosslyn un hallazgo ef ectuado por Martha Farah (1984), según el cual al menos
uno de los componentes de su modelo, el de la generación de imágenes, puede
.ser anulado aisladamente por una lesión cerebral. Además, en sorprendente
contradicción con lo que sugería la bibliografía sobre lateralidad cerebral, ese
componente parece encontrarse en las regiones posteriores del hemisferio izquier
do (y no el derecho) del cerebro humano. También se formularon otras críticas.
¡Sé le cuestionó a Kosslyn el significado de ciertos términos claves empleados en
.su modelo, y su vaguedad teórica. Por ejemplo, parece claro que el término “cuasi
figurativo” , aplicado a una imagen, explota la connotación del vocablo “figura”
sin pagar el debido precio por ello. Asimismo, se alzaron algunas voces contra la
-validez ecológica general del programa de investigación de Kosslyn. Ulric Neisser
.expresó lo siguiente:
¿Por qué la teoría aquí propuesta le parece al lector más inteligente que
- comprensiva, un modelo sagazmente elaborado) más que un estudio psicoló
gico serio? Creo que es porque el pensamiento de Kosslyn y sus colaborado
res se ha apartado por entero de todo lo que conocemos acerca de la acción
o de la percepción humanas. (...) Procura “ explicar” [accounr for] un con
junto sumamente restringido de resultados experimentales (por lo común,
_* latencias de reacción) vinculándolos con otra clase igualmente restringida
de modelos (por lo común, programas de computadora acerca de algo
semejante). (Citado en Kosslyn y otros, 1979, pág. 560.)
Tal vez a raíz de los fecundos experimentos que emanaron del laboratorio de
Kosslyn, las críticas más elocuentes no se centraron en los fenómenos ni en los
hallazgos, que parecen razonablemente sólidos, sino más bien en su pretensión
de que existe una forma separada de representación llamada imagen, que tiene
propiedades idiosincrásicas y opera con independencia de la forma canónica de
representación mediante proposiciones. Algunos, como John Anderson y Philip
Johnson-Laird, cuestionaron la validez de estas pretensiones. Basándose en ciertos
argumentos lógicos, Anderson sostuvo que, en cualquier corriente de experimen
tación, se pueden desarrollar explicaciones en términos de proposiciones o de
imágenes, y en principio no hay modo de aseverar cuál de esas explicaciones
es la correcta. Anderson concluía que “al no haber datos fisiológicos decisivos;
es imposible establecer si una representación intema es figurativa ó preposicio
nal” (1978, pág. 249). Johnson-Laird, por su parte, m oáceptó la demostración
de Anderson, pero sostuvo que es improbable que los debates áperca de las imá
genes puedan zanjarse mediante experimentos psicológicos. A su manera de
358 | La nueva ciencia de la mente
ver, sería más productivo centrar la discusión en tomo de los niveles de repre
sentación. En un plano, el proceso psicológico puede utilizar sólo cadenas de
símbolos, pero en un nivel superior puede apelar a diversos tipos de represen
taciones, incluidos ordenamientos, matrices de puntos, etc. Quizás, para diversas
finalidades, como la resolución de cierta dase de problemas, sea razonable que
los seres humanos utilicen imágenes o, como prefiere denominarlas Johnson-
Laird, “modelos mentales” (1983).
vos y creencias del sistema. Esta segunda clase de explicación, vinculada con infe
rencias más que con reacciones, es la que interesa particularmente al cognitivista;
aquí entramos en el territorio de Chomsky y de Fodor.
Para explicar las propiedades intrínsecas Pylyshyn acuñó la expresión arqui
tectura funcional, con la cual aludía a los mecanismos básicos de procesamiento
de información del sistema, respecto de los cuales basta con una descripción no
representacional. La arquitectura funcional incluye las operaciones básicas que
el sistema biológico permite, así como las limitaciones intrínsecas de éste (por
ejemplo, la magnitud de la memoria, la capacidad del retén [buffer], la lista de
operaciones admisibles, etc.). La arquitectura funcional no puede variar de un
modo tal que exija una explicación cognitivista (en lo tocante a sus objetivos,
creencias, representaciones, etc.), sino que más bien las diferencias entre los
fenómenos cognitivos pueden explicarse apelando a las diferentes combinaciones
que prevalecen entre un conjunto fijo de operaciones.
La noción de arquitectura funcional permite a Pylyshyn discriminar dos
tipos de procesos fundamentalmente distintos: aquellos para cuya explicación
se requiere recurrir a ciertas clases de representaciones y aquellos otros que no
lo demandan. Los procesos que exigen apelar al nivel representacional son deno
minados por él cognitivamente penetrables: pueden ser (y habitualmente son)
afectados por los procesos simbólicos del sujeto, incluidas sus creencias, deseos,
etc.; las inferencias avaladoras quedan fuera de la arquitectura funcional. En
contraste con ello tenemos las capacidades cognitivamente impenetrables', estos
procesos forman parte de la arquitectura funcional y se ejecutan de un modo
automático y circunscripto, siendo inmunes a las creencias del sujeto. Las capa
cidades impenetrables pueden asimilarse al soporte físico de una computadora;
las capacidades penetrables son programables y por ende están sujetas a cambios.
Sería conveniente que el repertorio cognitivo humano fuera en gran medida
impenetrable: en tal caso, muchos procesos podrían explicarse como de ocu
rrencia necesaria por obra de las conexiones neurales. No obstante, sucede que
gran parte de la cognición humana es penetrable, y en particular, según Pylyshyn,
son cognitivamente penetrables las imágenes: más que un requisito de una cierta
clase de sistema cognitivo (parte del soporte físico), ellas pueden ser modificadas
de cualquier manera, sólo con que el individuo se dé ciertas instrucciones prepo
sicionales a sí mismo. Si se presume que los resultados obtenidos por Kosslyn
contribuyen a nuestro conocimiento del modo en que opera la mente, estas fun
ciones deberían ser cognitivamente impenetrables: se aplicarían en todos los casos
en que presuntamente hay envueltas imágenes. Pero —sostiene Pylyshyn— uno
puede de hecho modificarlas: son cognitivamente penetrables. Dicho en términos
más concretos, puede desplazarse la atención de un lugar a otro dentro de la ima
gen, con la misma facilidad con que se puede modificar la velocidad de su escru
tinio, lo cual evidencia que estas operaciones están a merced de las' ideas y
creencias propias.
360 | La nueva ciencia d e la mente
Esta corriente crítica recibió mayor impulso aun de William Shebar (1979),
un filósofo que trabajó con Kosslyn y luego sometió alguna de sus ideas a una
crítica basada en la concepción de Wittgenstein. Como ya señalé en el capítulo
4, Wittgenstein no tenía gran estima por las teorizaciones psicológicas, ya que,
según él, a menudo se adoptan conceptos de manera irreflexiva basándose en
determinados rasgos cautivantes de nuestra lengua. Así, el enfoque wittgenstei-
11. Imágenes mentales: ¿una creación imaginaria? | 363
niano exige prestar cuidadosa atención al lenguaje (por ejemplo, cuando se ha
bla de “imaginar” o de “ forjarse una imagen”), y es escéptico respecto a que
las imágenes sean un constructo explicatorio en psicología.
Según Shebar, un examen minucioso del lenguaje empleado al especular
sobre las imágenes revela las numerosas trampas allí contenidas. No debe con
cebirse la imagen como una cosa, pues ¿qué clase de cosa sería? Es preferible
hablar de la acción de imaginar, que es algo que legítimamente hacen las perso
nas. Puede pedírsele a alguien que imagine una casa —cualquiera es capaz de
hacerlo—, pero no puede pedírsele que “vea una casa” , ya que el hecho de ver
fes una acción distinta del imaginar, no sujeta al control voluntario. Por lo mismo,
-es engañoso trazar una analogía entre una imagen y una figura. Para crear una
figura se necesitan materias primas que no son necesarias para formarse una ima
gen; y esta clase de elocución nos lleva a concebir las imágenes como diapositivas
privadas que pudiéramos pasar en las pantallas de nuestra mente. Así, nadie puede
,■-trazar la figura dibujada por otro, pero todos tenemos la capacidad de imaginarla.
Shebar objeta la caracterización que ha hecho Kosslyn de sus resultados, di-
• .Tiendo que éstos pueden explicarse sin recurrir a la analogía de las imágenes. Todo
el mundo sabe que, en una figura real, lleva más tiempo explorar distancias mayo
res, y, por ello, al pedírsele que imagine este proceso, lo concibe de manera simi
lar. El hecho de que lleve más tiempo oprimir el botón no implica que exista un
proceso particular llamado “formación de imágenes” de mayor duración, y un ele
mento particular llamado “imagen” ; todo lo que se afirma es que, sea lo que fuere
lo que ocurra cuando se explora una distancia mayor, lleva más tiempo.
Dice Shebar que la frase representación interna está cargada desde el vamos
con connotaciones de las representaciones externas en base a las cuales se ha mo
delado. Pero no corresponde decir que una figura oculta es una representación,
pues, ¿para quién representaría algo si pudiera verla? Shebar considera que hay
aquí un círculo vicioso: los sujetos de Kosslyn comprenden las consignas que éste
les da al captar, precisamente, la analogía utilizada por aquél para formular las
predicciones y más tarde para explicar los resultados. Shebar afirma que la com-
- prensión por el sujeto del “proceso interior” verbalizado en las instrucciones de
pende de que capte el “proceso exterior” sobre el cual ha sido modelado, y su ver-
' balización; y en tal caso, se ve obligado a producir precisamente esas regularidades
que parecen probar la teoría.
i; , La crítica de Shebar a los estudios sobre las imágenes puede llegar a ser de-
; vastadora también para otras áreas de la psicología que juegan con las represen-
taciones internas. Desde su perspectiva, pese a que los psicólogos creen que
í' están estudiando procesos, en realidad lo que hacen es examinar los efectos
que tiene adoptar un cierto modo de referirse a los objetos. Los investigadores
^utilizan una especie de elocución que, en verdad, .refleja un modo preteórico
de analizar la experiencia, y no mecanismos que efectivamente puedan ser in
vestigados y comprendidos. Según esto, los problemas de la psicología no se re-
364 | La nueva ciencia de la mente
solverán con nuevos datos o con una terminología más precisa, sino más bien
cuando se advierta que no son auténticos problemas.
A mi modo de ver, la crítica de Shebar es vigorizante, y quizás también un
poco intoxicante, pero no tan fatal como él pretendería. Por cierto, hay muchos
riesgos en adoptar un determinado vocabulario, con todas las asociaciones incons
cientes que éste pueda tener, perjudiciales para sus usuarios. Pero para remediar
este problema basta con prestar mejor atención al modo en que se habla, y formu
lar más escrupulosamente la propia teoría: no es necesario abandonar ninguna
línea de estudios. Es innegable (lo sería incluso para Wittgenstein) que vale la
pena averiguar cómo perciben los sujetos humanos; y si el aspecto de las imágenes
intentas parece formar parte de la percepción o tener propiedades semejantes a las
de la percepción visual “en vivo” , también estos fenómenos merecen estudiarse.
Pero como estas capacidades se manifiestan menos y están menos sujetas a la
corroboración intersubjetiva, es preciso estar mucho más alerta al respecto.
La concepción wittgensteiniana plantea profundos interrogantes a la ciencia cogni-
tivista. Esta disciplina en ciernes descansa en la premisa de que es válido hablar
de representaciones intemas; o sea, que éstas se hallan en un nivel distinto que la
célula nerviosa de la fisiología y que las normas de conducta de una comunidad.
Wittgenstein no estaba dispuesto a abrazar esta premisa, aúnque eludió las críti
cas conductistas unilaterales a los “ constructos intemos” y propuso una elaborada
concepción acerca del modo en que la comunidad permite conceptualizar el mundo.
Parecería que nada hay más vulnerable a una crítica de tipo wittgensteiniano
que estos estudios sobre las imágenes. Es relativamente simple hablar de las
-percepciones de objetos o de las acciones de un individuo en el mundo; y aun el
lenguaje o la música son sistemas simbólicos que pueden ser fácilmente analiza
dos. Pero parecería que el examen de fenómenos tan misteriosos como las imáge
nes mentales genera forzosamente metáforas (como la del “ojo de la mente”) y
modelos extravagantes (como el del tubo de rayos catódicos), que difieren en
aspectos notorios de los fenómenos que se pretenden modelar con ellos. ¡Carro
ña para los buitres filosóficos!
Tal vez hagan bien ciertos científicos cognitivistas precavidos como Py-
lyshyn en soslayar toda especulación acerca de las imágenes y replegarse hacia terre
nos más firmes. No obstante, podrían apelar Kosslyn, Shepard y sus colaborado
res a otra táctica científica mucho más osada. Si es posible defender la ciencia :
cognitiva en el terreno comparativamente endeble (y tendencioso) de las imágenes,
si puede allí replicarse a la crítica wittgensteiniana, entonces la argumentación
será más fácil de trasladar a otros campos más sólidos. Según esta perspectiva, los
obstáculos que se alzan en el estudio de las imágenes pueden conferir, curiosamen-
te, gran eficacia a todos los^mpeños que logren éxito en esta esfera.
El escepticismo de tipo wittgensteiniano podría, empero, ser válido en cierto j
aspecto. Suponiendo que sea defendible la descripción estricta que hace la ciencia ;
cognitiva de la percepción verídica, y también de esa percepción de segundo orden
11. Imágenes mentales: ¿una creación imaginaria? | 365
implícita en las imágenes mentales, aun así estas formas de actividad psíquica
podrían llevarse a cabo, total, o al menos parcialmente, sin referencia al lenguaje
ni a sistemas conceptuales organizadores. (Después de todo, bien puede ser que los
animales que carecen de lenguaje tengan imágenes; y poca duda cabe de que perci
ben en forma similar a los seres humanos.) No obstante, cualquier ciencia cogni-
tiva digna de ese nombre tendrá que explicar, asimismo, otras capacidades cogni-
tivas, muy infiltradas o penetradas por los procesos lingüísticos y conceptuales.
En este terreno, la ciencia cognitiva enfrenta los problemas más inquietantes ( . . . )
' y también los que más profundamente preocupan a los seres humanos.
V,
12 La categorización del mundo
Cuando los griegos definieron al ser humano diciendo que era un “bípedo
implume” , no estaban dando sólo una definición sucinta de su especie: ejempli
ficaban con ello su creencia de que los objetos comunes y corrientes del mundo
pueden clasificarse en grupos, y a su vez estos grupos son diferenciables por
determinados atributos que sirven de criterios definitorios. Así, todos los hombres
pertenecen a una categoría única, la de los seres humanos, y esta clase puede
definirse confiablemente mediante la caprichosa expresión a la que aludí al
comienzo.
Veamos cuántas cosas hay implícitas en esta pulcra formulación. Si bien
todos los seres vivos responden de manera similar frente a las entidades del mundo
que consideran semejantes, lo típico es que estas respuestas sean irreflexivas.
Apreciar que en todos los lugares de la Tierra los seres humanos agrupan en
categorías entidades semejantes, constituye ya un importante logro; y más aun
lo es advertir que estas categorizaciones pueden conformar una jerarquía con
catenada. Por ejemplo, si una persona ve en distintas circunstancias a un perro
“terrier” , no por ello dejará de pensar que es siempre el mismo terrier; luego,
tal vez agrupe a todos los terriers que ha conocido, y más tarde a los terriers junto
con los ovejeros en la categoría de los perros, a los perros y gatos dentro de la
categoría de los animales domésticos, y asi' siguiendo en la jerarquía illegará z los
mamíferos, verte rddos, animales , seres vivos y, finalmente, a los entes en gene
ral (Keil, 1979). Amén de conformar y organizar categorías, los hombres
averiguan los rasgos definitorios de cada una de ellas. Si pueden contar con una
definición satisfactoria de lo que es un terrier, un perro, un animal doméstico,
etc., tendrán entonces fundamentos racionales para ubicar cada entidad dentro de
una o más categorías apropiadas.
Desde la época de Aristóteles, esta costumbre de denominar, definir y catego-
rizar ha sido sometida al examen filosófico. A mediados de este siglo ya se había
12. La categorizactón del mundo | 367
sistema nervioso que determine de qué manera podemos recortar nuestras observa
ciones. Las culturas y lenguajes hacen esta tarea por nosotros. Los rubros pueden
agruparse de cualquier cantidad de modos a fin de constituir categorías, y las
personas pueden aprender á identificar o construir esas categorías, definidas por
sus respectivas culturas. „•
2. Las categorías poseen atributos definitorios o críticos. Todos los
miembros de una categoría comparten estos atributos, ningún miembro de otra
categoría los comparte, y no existe superposición alguna entre los miembros de
una categoría y los que no lo son.
3. La intensión (o suma de atributos) de una categoría determina su exten
sión (la cantidad de objetos del mundo que la integran en calidad de miembros).
Por lo tanto, no tiene ningún sentido pensar que una categoría puede estar dotada
de una estructura interna tal que algunos de sus ítems sobresalgan respecto de los
demás como miembros “mejores” . Un triángulo es grande y rojo, o no lo es. Los
límites son estrictos y no hay confusión posible.
Hemos formulado estas premisas en su forma más pura, pero ya desde la épo
ca de los empiristas ingleses se plantearon objeciones frente a esta visión extrema
de las categorías. Sea como fuere, en una u otra de sus variantes, esta posición
clásica tuvo amplio arraigo hasta mediados de este siglo, cuando Ludwig Witt-
genstem y sus seguidores lanzaron contra ella un desafío que en las últimas déca
das recibió considerables refuerzos de los trabajos llevados a cabo en las ciencias
de la conducta. Eleanor Rosch, posiblemente la cognitivista que más socavó con
sus críticas la concepción clásica, describía así la actitud intelectual prevaleciente
alrededor de 1950 en torno de este tema:
Desde un punto de vista puramente físico, nada nos indica dónde termina la
designación de un color y dónde empieza la de otro: el espectro (o esfera) de los
colores es un continuo que no tiene fin. Sin embargo, todos los grupos humanos
han apelado a uno u otro medio de nombrar o rotular los colores, y estos proce
dimientos para subdividir el espectro parecen ser muy diversos entre sí. En algunas
culturas, sólo hay dos o tres palabras para describir la totalidad de los colores,
en tanto que en otras sociedades, como la nuestra, se cuenta con una familia de
términos, algunos de los cuales son adjetivos simples (azul), en tanto que otros son
expresiones más complejas (azul-celeste claro). Como aparentemente cada cultura
recorta la “esfera” de los colores según le parece, no operarían leyes naturales en
este ámbito. Una cultura divide el espectro délos colores en un cierto punto (por
ejemplo, en la longitud de onda x), mientras que otra lo divide en otro punto
(longitud de onda y ) o bien lo divide más veces. La tarea a la que se enfrenta el
habitante de la cultura es aprender el nombre del color .que, arbitrariamente, ella
há fijado, del mismo modo que aprende el nombre de los parientes, de las plantas
y animales, y de todas las invenciones humanas, desde las herramientas hasta el
régimen de gobierno.
Un estudioso que reflexionó mucho en tomo de estas cuestiones fue Roger
Brown, psicolingüista de la Universidad de Harvard. A comienzos de la década de
1950, junto con su aventajado alumno Eric Lenneberg, Brown se interesó por
examinar cómo influye, en la particular subdivisión que una cultura hace del
espectro de los colores, la forma en que sus miembros clasifican, y posteriormente
w recuerdan, matices específicos. En una reseña escrita en 1975, Brown rememora
ba el Zeitgeist de esa época y cómo terminaría socavado por Eleanor Rosch,
quien no por casualidad había sido su alumnacasi veinte años atrás. , i ¿ -í . • :
En esa reseña, Brown recordaba que él y Lenneberg (1954) habían querido
poner a prueba la hipótesis de Whorf y Sapir según la cual la conceptualizadón
que el sujeto hace del mundo refleja los términos y conceptos particulares de sir
cultura (véase también supra, pág. 259). Estos estudiosos seleccionaron el color
para su indagación por dos motivos principales:-en primer iugar, porque loscolo-^
res pueden describirse de un modo objetivo, “ajenó a la cultura”., apoyándose en'
un mecanismo psicofísico presente por doquier; y en segundo lugar, porque los'
370 | La nueva ciencia óe la mente
los colores en poblaciones exóticas (Mervis y Rosch, 1981; Rosch, 1977, 1978).
De regreso en Estados Unidos, sondeó una amplia gama de dominios del saber y
llegó a la conclusión de que la cuestión de los colores tenía un alto grado de
relevancia también en otros campos. Según la concepción tradicional de la clasifi
cación, basada fundamentalmente en el empleo de estímulos artificiales, cada cate
goría se define por una lista finita de características definitorias: los entes que
poseen tales características son miembros de la categoría en tanto que los que no
las poseen, no lo son. Pero este cuadro clásico -no se aplica al mundo de objetos
naturales, como las aves, ni resulta tampoco muy esclarecedor en el caso de numero
sos objetos artificiales construidos por el hombre, como las herramientas o elemen
tos del mobiliario. En el mundo de la realidad cotidiana, lo habitual es que haya un
alto grado de correlación entre características no independientes entre sí. Por ejem
plo, partiendo déla capacidad de percibir alas, plumas y pieles, muy pronto el suje
to percipiente advierte que en el mundo empírico las alas se presentan más a menudo
junto con las plumas que con las pieles. En otras palabras, hay un alto grado de
redundancia en la presentación de miembros de la misma categoría, en lugar de la
independencia de sus rasgos, como postulaba la concepción clásica; y los mecanis
mos de reconocimiento sacan provecho de estas redundancias.
El mundo, tal como es, se entromete también de otras maneras en este asun
to. Por ejemplo, con respecto a los objetos creados por el hombre, es probable que
un grupo de ellos, de determinado aspecto, sean agrupados como “sillas” (pues
poseen la propiedad de que permiten sentarse sobrehilos), en tanto que otro
grupo más probablemente sea agrupado como “ vasijas” (porque permiten ser
asidas con la mano y volcar líquidos en ellas). Cierto es que hay características
que parecerían diferenciar las sillas de las vasijas; pero por más que se busque un
conjunto de criterios definitorios, esta búsqueda resulta vana; parece más prove
choso para la clasificación remitirse a la clase de acciones que estos objetos provo
can o permiten.
Rosch discernió una estructura básica que parece apreciable en una amplia
gama de categorías. Según ella, las categorías se construyen en tomo de un
miembro central o prototipo, ejemplo representativo de esa clase, que comparte
con otros miembros de la misma categoría la mayoría de sus características y en
cambio tiene muy pocas en común, si es que tiene alguna, con elementos pertene
cientes a otras clases. Un tordo es un ave más prototípica que una gallina o un pin
güino, y en consecuencia se la reconoce más prontamente como tal y es menos
probable que se la clasifique equivocadamente como miembro de la categoría
de los mamíferos o de los peces. Análogamente, el automóvil de asiento trasero
y delantero (que en inglés se denomina sedán) resulta más prototípico que la anti
gua limusina o el moderno auto sport convertible. Los mismos hallazgos son váli
dos incluso con respecto a categorías inventadas artificialmente (por ejemplo,
úna serie de esquemas de puntos, o un conjunto de figuras sin referente real,
categorías cuyos miembros han sido establecidos de acuerdo con ciertos criterios
12. La categonzación del mundo | 373
bito de la categorización son varios. Los seres humanos, cuya evolución a lo largo
de muchísimos afios les posibilitó enfrentar eficientemente su entorno, tienden
a agrupar en categorías aquellas entidades que parecen similares a su aparato
perceptual, o que les exigen acciones similares, o ambas cosas. Por añadidura, lo
que a ellos les parece similar no es en modo alguno arbitrario. Por ejemplo,
nuestro sistema óptico está diseñado de modo tal de considerar que ciertas varie
dades de rojos son mejores que otras, y trazar la línea demarcatoria entre el rojo
y el naranja, o entre el naranja y el amarillo, en puntos específicos de lo que pare
ce ser (de acuerdo con los instrumentos del físico) un espectro continuo. Esta
concepción tiene claros elementos en común con lo que se conoce sobre la fisio
logía de la visión cromática, y también se conecta con los trabajos recientes en el
campo de la lógica: la nueva variedad denominada lógica difusa de conjuntos,
que se ocupa del grado en que los miembros de una clase pertenecen a ella, se ade
cúa bien a lo postulado por Rosch y sus colaboradores. Así pues, un revelador
hallazgo sobre la designación de los colores en una tribu remota, que vive aún en
la Edad de Piedra, promovió una revolución en nuestra manera de concebir los
conceptos.
Casi todos concuerdan en que los descubrimientos de Rosch socavan el fuerte
apoyo que recibieron los conceptos de la teoría clásica; pero algunos han cuestio
nado si la concepción natural, por sí sola, puede reemplazar a aquélla. Sharon
Armstrong, Lila Gleitman y Henry Gleitman (1983) llevaron a cabo un estudio
para examinar la estructura de una categoría claramente definida a la manera
clásica: la de los números impares. Comprobaron con agrado que es tan probable
que los individuos organicen un concepto de esta índole en tomo de un prototipo,
como en el caso de una categoría natural de Ja índole de la de los pájaros o las
hortalizas (el número impar prototípico resultó ser el siete). Los investigadores
concluyeron que Rosch no tenía modo alguno de discernir entre un concepto
natural y otro definido a la manera clásica. Sin embargo, a mi entender, podría
demostrarse igualmente con este tipo de pruebas que aún los conceptos clásicos
“genuinos” tienen una estructura categórica al de la especie que Rosch pesquisó
en otros ámbitos. De acuerdo con este último análisis, la tendencia a discernir
características naturales en todas las categorías sería una confirmación y no una
refutación de la concepción natural.
Otra opinión crítica, expuesta por Daniel Osherson y Edward Smith (1981),
sostiene que la teoría del prototipo no .explica la forma en que conceptos más
complejos están aparentemente integrados por conceptos más elementales (por
ejemplo, el de "pet fish”, compuesto en inglés por “p et”, animal doméstico, y
"fish”, pez). Estos autores postulan una teoría híbrida: sostienen que si bien la
categorización exige un concepto nuclear, según afirmaba la teoría clásica, este
aspecto nuclear debe estar combinado con un proceso identificatorio, correspon
diente al modo en que el sujeto determina qué miembros integran una categoría.
El enfoque de Rosch, dicen, explica cómo se identifican los casos pertenecientes
1 2 La categorización del mundo | 375
Más o menos por la misma época en que Eleanor Rosch acudía a las agrestes
tierras de Nueva Guinea, dentro de la comunidad filosófica se producía un viraje
en muchos aspectos paralelo a las tendencias imperantes en psicología y antropo
logía. Como ocurrió antaño más de una vez, este viraje filosófico fue anticipado
por Ludwig Wittgenstein (1968). A comienzos de siglo, Wittgenstein —que no sólo
fue uno de los principales sostenedores del Círculo de Viena, si no su inspirador
(ver supra, págs. 78-81)— había subrayado la importancia de la lógica y la necesi
dad de precisión en el lenguaje, así como la conveniencia de guardar silencio cuan
do fuera imposible alcanzar esa precisión lingüística. Pero en la segunda etapa de su
carrera académica se centró más bien en la forma en que es utilizado el lenguaje
corriente, y arribó a la controvertida condusión de que los problemas filosóficos
son inherentes, en el caso típico, al uso que cada cual hace de la lengua. Para él,
el lenguaje es un conjunto vago y fragmentario de elementos, y un medio de
comunicación indispensable entre los individuos; pero tanto puede iluminar las
cosas como oscurecerlas, ya que es la red a través de la cual pasa necesariamente
cualquier otra experiencia. Los conceptos no son ni constructos mentales ni ideas
abstractas existentes en el mundo, sino que debe considerárselos capacidades que
los individuos pueden emplear de una manera aceptable para el resto de su comu
nidad; dicho en términos generales, los conceptos no son sino una manera de reali
zar cosas.
Wittgenstein era escéptico al respecto: lo máximo que un analista puede espe
rar, decía, es comprender mejor cómo opera el sistema de la lengua y cómo han
-llegado a plasmarse nuestras ideas merced a prácticas lingüísticas de nuestra comu
nidad. Todo empeño por averiguar lo que “realmente” acontece, dejando de lado
al lenguaje, está condenado al fracaso. Y la glorificación de la lógica o de concep
tos abstractos desprovistos de utilidad dentro de la comunidad a la que se perte
nece es irrelevante y carece de fundamentos filosóficos.
Al mismo tiempo que Wittgenstein proponía una concepción radicalmente
distinta del lenguaje y de la conceptualización, otros filósofos de la tradición
anglo-norteamericana que antaño habían simpatizado con el empirismo lógico
lanzaban ahora ataques contra él; por ejemplo, W.V.O. Quine (1953) y Nelson
Goodman (1955). Según puntualicé en el capítulo 4, ellos desdeñaron la distin
ción entre lo analítico y lo sintético, el contraste entre lo inmediato y lo mediato,
así como la posibilidad de verificar las sentencias observacionales; y proponían
metas más modestas para la filosofía, y aun su fusión con la psicología con una
suerte de “epistemologíanaturalizada” .
Un ataque más decisivo todavía a la teoría clásica de los conceptos fue lanza
do, casi al mismo tiempo, por Jos filósofos norteamericanos Saúl Kripke (1972)
y Hilary Putnam (1975b). Esta pareja de estudiosos cuestionó la creencia de que
el mundo es un confuso tumulto de senaciones que admiten ser igualmente
12. La categorización del mundo | 379
•rlí
analizadas de un modo indefinido de maneras. Más bien, procediendo en forma
análoga a Rosch en psicología, abrazaron una concepción sobre la denominación
y clasificación que.tenía reminiscencias del realismo más extremo. Kripke, Putnam
y sus colaboradores adujeron que existe una estructura real del mundo, y que
gran parte de nuestros equipos conceptuales están destinados a captar esta estruc
tura auténtica y accesible. Tanto Putnam <juien hablaba de las “especies natura
les” ) como Kripke (quien se refería a los “designadores rígidos” ) aducían que hay
múltiples objetos —desde el “oro” hasta el pez denominado “carpa dorada”—
y entidades -personas como “Richard Nixon” o “ Greta Garbo” - que es imposi
ble definir en función de una lista de atributos característicos. A todos los fines
prácticos estos conceptos carecen de definición, de intensión; sólo tienen exten
sión, o sea, una relación que enlaza al término con su referente concreto en el
mundo. Richard Nixon es la persona a quien su madre bautizó así, y nadie más; y
la única manera que tenemos de aseguramos de que es Richard Nixon es una histo
ria que documente que se trata del individuo así llamado por sus padres en el año
1913. Por lo mismo, los científicos definen hoy el oro como un elemento quími
co cuyo número atómico es 79, pero el oro seguirá siendo el oro aunque la
comprensión que de él tengan los hombres de ciencia se modifique.
Según esto, todos los casos de una misma especie natural poseen una defini
da propiedad subyacente en común. Todos los limones, verbigracia, tienen en defi
nitiva la misma estructura, aunque dos cualesquiera de ellos tomados al azar
puedan carecer de alguna propiedad perceptible específica compartida. Una cate
goría se organiza en tomo dé estereotipos que permiten a un lego reconocer sus
ip¡ especímenes, y esa organización demuestra ser esencial: el sujeto no necesita estar
al tanto de las propiedades genéticas subyacentes que todos los limones com
1 parten.
Como explicó Stephen Schwartz (1979), acudimos a los expertos para que nos
ayuden a determinar el uso apropiado de estos términos referidos a las especies
naturales. Presumimos que alguna persona (o algún procedimiento) puede confir
mamos la identidad de Richard Nixon; que alguien o algo puede ratificamos que
este metal es oro o que este objeto esferoidal es un limón. Estos términos vincu
lados a especies naturales permiten formular generalizaciones estables del tipo de
“Si se somete el oro al procedimiento X, resultará.. . ” . Para usar con propiedad
el término referido a la especie natural, no es preciso conocer la característica que
rige su extensión; más aun, tal vez en la actualidad nadie lo conozca; todo lo que
se necesita es creer que algún día podrá descubrírsela. En otras palabras, existe
¡r
:S r, en principio una naturaleza, y puede ser descubierta.
¿Por qué tenemos términos para designar las especies naturales? Schwartz
•í' opina que estos términos surgen cada vez que una misma sustancia u objeto
adopta, característicamente, gran cantidad de formas distintas. El agua puede
adoptar diferentes formas, y lo mismo las plantas, animales, enfermedades, etc.
Al apreciar estos cambios en “ un mismo” objeto, suponemos que algún rasgo
380 | ‘ La nueva ciencia de la mente
subyacente hace que esa sustancia siga siendo siempre la misma. En contraste con
ello, las “especies artificiales” no sufren necesariamente-cambios muy notorios:
los automóviles no se enmohecen por fuerza, ni se doblan los anillos; simplemente
cualquier objeto fabricado por el hombre puede estar sujeto a ciertas vicisitudes.
Schwartz discierne una unidad en los cambios que presentan los términos referidos
a especies naturales, en tanto todos los miembros' de una especie deben experi
mentarlos. En la transición del hielo al agua o de la larva a la mariposa, algo cuya
naturaleza está regida por una ley debe seguir siendo igual a sí mismo. “Análoga
mente, el motivo por el cual creo que los tigres comparten una esencia, la razón
de que me vea obligado a postular un rasgo subyacente que hace que todos los
tigres sean tigres, es que por un proceso perfectamente natural, inconsciente e
ineluctable, los tigres grandes producen tigres pequeños” (1979, pág. 315). Expre
sado en los términos de Kripke, concebimos los objetos en función de lo que les
acontece, en función de sus posibilidades modales, regularidades y excepciones.
Para quienes permanecen algo ajenos a las disputas filosóficas, este tránsito a
los objetos de especies naturales, esta predisposición a aceptar una definición
ostensiva (“Esto es oro”) o una historia de sucesos (“Esta entidad ha sido siempre
Richard Nixon” ) en lugar de una nómina de condiciones necesarias y suficientes
(“el oro es A ,B ,C ' o “Richard Nixon es X , YJZ") puede parecer inocua; pero
dentro del mundo filosófico, ía acometida iniciada por Wittgenstein y extendida
luego en rumbos novedosos e imprevisibles por Kripke y Putnam se considera
muy radical. Ciertas verdades sagradas que se remontan a Aristóteles fueron
puestas directamente en entredicho, y se introdujo una serie de afirmaciones muy
rotundas de corte biológico (“el limón tiene una esencia.. . ”) en un mundo que
se sentía cómodo con su empirismo y.su nominalismo. Para la corriente de Kripke
y de Putnam, los significados de las cosas ya no estarían situados dentro de la
mente de alguien sino en el mundo mismo: constituyen un imperativo establecido
por la estructura real de los objetos y por las formas en que los individuos los
aprenden.
Los debates sobre la nueva teoría de la referencia han cobrado gran vigor
dentro de la comunidad filosófica. A veces la concepción de las esencias, de la
estructura “real” del mundo, del vínculo entre los nombres propios (como
“Richard Nixon”) y los términos que designan especies naturales (como “limón”
u “oro” ), se considera un movimiento reaccionario, víctima de los mismos
errores de los filósofos de décadas pasadas, que en apariencia habían sido exor-
cisados durante varios siglos por el análisis empirista. Muchos entienden que es
riesgoso reunir en una misma categoría elementos diversos a raíz de la identidad
ostensible de sus estructuras subyacentes. Más aun, esta vuelta al realismo tiene
tantas implicaciones filosóficas que hasta el propio Putnam (aunque no así,
aparentemente, Kripke) ha recapacitado acerca del peligroso atolladero al que
puede llevar este caminó analítico.
Pero por más que un filósofo pueda tener muchos recelos al respecto, a cual-
12. La categorización del mundo | 381
Esta decadencia de la teoría clásica nos coloca ante una situación irónica, que
ya hemos encontrado en otros contextos. La teoría clásica de los conceptos estaba
hecha a la medida de un modelo computacional de la mente, o sea, constituido
por una serie de dimensiones definidas con precisión, que en su conjunto podían
.dar como fruto una categoría. Las computadoras eran aparatos perfectos para
simular (o sintetizar) este modo de operar de la mente. Lo notable es que en el
mismo momento en que la ciencia había creado un aparato capaz de simular una
determinada concepción de los conceptos, esta concepción fue considerada total
mente endeble. No es de sorprender, entonces, que en varias disciplinas surgiera
resistencia frente a los corolarios contundentes de la concepción natural. Muchos
estudiosos siguieron adhiriendo a una gama de categorías, algunas relativamente
naturales, otras arbitrarias en mayor medida y capaces de ser sometidas al tipo de
análisis expuesto en la teoría clásica. Y es verdad que la teoría natural da mejores
respuestas frente a los colores o las plantas que frente a los términos jurídicos, las
religiones o los conceptos sobre uno mismo; por otro lado, está lejos de haber
sido establecido hasta qué punto puede manejar satisfactoriamente los artefactos
creados por el hombre.
A mi juicio, el principal desafío que enfrenta la concepción natural tiene que
ver con el grado en que pueda explicar algo más que las entidades de nivel básico,
que estamos “biológicamente preparados” para percibir y clasificar. Es muy
probable que el color se preste a una descripción del tipo de las especies naturales,
ya que nuestro sistema perceptual está preparado para considerar focales determi
nados colores; y hay motivos para suponer que en todo el mundo los primates
ven los colores de manera similar (a menos que padezcan de ceguera cromática).
No están igualmente elaborados los datos concernientes a otras entidades “natu
rales” , como las plantas, frutas o animales, aunque hay buenas razones para prever
que también en este caso puede bastar una descripción acorde a la tradición
naturalista (Berlín, Breedlove y Raven, 1973).
Ahora bien: gran parte de nuestras clasificaciones cotidianas trascienden los
objetos que la evolución nos ha predispuesto para clasificar de determinadas mane
ras. Tenemos ante nosotros una multitud de artefactos creados por el hombre,
desde herramientas y máquinas hasta obras de arte y literatura. Tenemos también
conceptos más abstractos, como las ideas políticas, las doctrinas religiosas, los
sistemas de creencias y las leyes económicas; y aun hay otros que afectan y
preocupan mucho más a los individuos, como los conceptos vinculados a la perso
nalidad, la motivación, la sexualidad, la vida emocional y el ser. Los antropólo
gos de orientación etnocientífica han querido aplicar a estos conceptos enfoques
eficientes en ámbitos más simples, como los del sistema de parentesco, las plantas
y colores. Según apunté en el capítulo 8, estas tentativas no resultaron particular
mente airosas; y, en verdad, tanto en su variante clásica como en su variante natu
ral, la disciplina de la etnociencia se halla en la actualidad “en reposo” . Podría
decirse que la crítica de la concepción clásica ha tenido relativo éxito, pero el
12 . La categorización del mundo | 383
siguen los estrictos cánones de la lógica (de lo contrario, su obra no sería acepta-
.da). En sus empeños por establecer un modelo para los procesos de pensamiento,
han procurado encontrar esas mismas categorías y operaciones en los individuos
normales; pero en esta búsqueda de las señales identificatorias del científico en
,el hombre no científico (o aun en el científico cuando no actúa como tal), se han
-visto decepcionados. Frente a un concepto artificial, el sujeto intenta tratarlo
como un concepto natural, por inapropiado que esto sea. Si se le solicita que razo
ne lógicamente, recurre, empero, a imágenes y estereotipos. Nos hallamos, pues,
.ante esta paradójica situación: los hombres de ciencia han intentado, con fines
experimentales, volver artificial el mundo natural; y en cambio los sujetos de sus
experiencias, ante la dificultad de abordar estos conceptos artificiales, simplemen
te apelaron a su modalidad naturalista de razonamiento y clasificación, por más
que ésta a veces no les sirviera.
gi Volviendo a las cuestiones planteadas en los más antiguos debates filosófi
cos, comprobamos que en verdad ha habido algún progreso. Al menos se han cues-
.tionado intensamente los puntos de vista clásicos. Algunos elementos de los
conceptos naturalistas nos recuerdan las “formas ideales” y los “ universales” ,
¡a punto tal que a Platón lo complacería esta reivindicación. Análogamente, ha
recibido algún apoyo la opinión de que, en ciertas circunstancias, el lenguaje utili
zado influye en el modo de conceptualizar el mundo; al pasar a ámbitos más
complejos y abstractos, menos inmediatamente perceptibles, el papel de los siste
mas simbólicos del sujeto llega a ser predominante. Pero en las esferas hasta ahora
investigadas, como la clasificación de objetos corrientes o las experiencias senso
riales comunes, ni la posición nominalista pura ni la whoriiana extrema han reci
bido confirmación. __ ____ ....................... -...-................-
¿Cómo se sitúa la ciencia cognitiva en esta empresa conjunta? Una vez más,
el avance fue fruto de la convergencia de campos dispares. Las disciplinas más
involucradas en las cuestiones relativas a la clasificación han sido la filosofía
(donde se definieron y discutieron los problemas), la psicología (que llevó a cabo
ciertos experimentos críticos) y la antropología (que efectuó estudios transcultu
rales pertinentes). Estudiosos como Eleanor Rosch, Brent Berlin, Paul Kay y
Hilary Putnam son buenos representantes de este espíritu ecuménico. Hasta ahora
han sido modestas las restricciones que la neurofisiología ha impuesto a la clasi
ficación; no obstante, todo el mundo siente que camina sobre bases más firmes
cuando los resultados obtenidos en temas como la designación de los colores resul
tan compatibles con lo que se conoce acerca de la fisiología humana. Lo que por
el momento vuelve remota la esperanza de obtener una explicación concluyente
es, en parte, la enorme distancia que separa a nuestra comprensión de los concep
tos abstractos de nuestra comprensión del sistema nervioso.
Como ocurrió en el campo de la percepción y de las imágenes, en este terreno
se han formulado críticas drásticas. Así como Gibson cuestionó las concepciones
representacionales de la percepción, y Wittgenstein el poder explicativo de las
386 | La nueva ciencia d e la mente
imágenes, así también Geertz y otros antropólogos se han preguntado si los estu
dios etnocientíficos comparativos de las categorías que valora Occidente pueden
acaso esclarecer las formas más corrientes de pensamiento. Tal vez los antropólo
gos estén en lo cierto al pensar que los conceptos complejos eluden todas las técni
cas de investigación actuales; y que, al menos durante un tiempo, se aprenderán
más cosas, y más importantes, apelando a los métodos propios de la sensibilidad
literaria. Al mismo tiempo, los procesos que dan origen a la categorización han
sido reconocidos en diversas poblaciones y dominios de la experiencia, y en tal
sentido lo que hoy sabemos acerca de la categorización es más (y es diferente)
de lo que sabíamos antes del surgimiento de la ciencia cognitiva.
Estas cuestiones nos han introducido en un terreno netamente humano, en
el que están involucrados el lenguaje y la capacidad de razonamiento. Pocos discu
tirían que en este terreno se ha avanzado menos que en el estudio de la percep
ción; como sugiere Geertz, quizás los problemas fundamentales acerca de la
categorización sigan eludiendo los métodos de la ciencia cognitiva, y ésta no se
halle en condiciones de explicar la génesis, naturaleza y aplicación de nuestros
conceptos y categorías más complicados y evocativos.
Pero aun cuando se demostrase que los problemas de la categorización se
avienen al análisis de la ciencia cognitiva, aun cuando se probase, verbigracia, que
la concepción naturalista tiene plena validez, seguirían irresueltas ciertas cuestio
nes decisivas. Porque en definitiva la clasificación o categorización es para el
hombre una herramienta, un medio de organizar su mundo a fin de resolver cier
tos asuntos y alcanzar determinados fines; y en última instancia los avances en este
campo dependerán de que los principios aplicados para abordar conceptos y
modos de clasificación comparativamente simples y modestos, resulten aplicables
a otros conceptos y sistemas más complejos.
¿Qué clase de organismo será el que utilice estas capacidades, y con qué
finalidades? En este punto, los científicos cognitivistas se han confrontado con los
aspectos axiológicos de la cognición humana; en particular, han debido prestar
suma atención al problema de si el individuo procede de manera lógica o racional.
Esta cuestión tiene importancia por razones científicas, ya que en gran parte la
ciencia cognitiva se funda en el modelo de la computadora lógica; y también tiene
repercusiones políticas y sociales. Las respuestas frente a estos interrogantes sobre
la racionalidad humana, de las cuales me ocuparé en el próximo capítulo, resultan
sorprendentes... y no muy tranquilizadoras para quienes han depositado su fe en
la razón.
13 ¿Hasta qué punto es racional el ser humano?
to , es casi seguro que se equivocarán, como ha ocurrido con leí 90% de los sujetos
(incluidos muchos especialistas en lógica) a quienes les fue propuesto en múltiples
contextos. En su mayoría, los sujetos advierten que no es necesario escoger la
taijeta con la consonante, ya que a todas luces esto nada tiene que ver con la regla;
m también advierten que es esencial dar vuelta la tarjeta con la vocal, ya que en caso
íj de hallar del otro lado un número impar, la regla quedaría invalidada. La dificultad
■'^jSÍ Teside en decidir cuál de las dos tarjetas con números se levantarán. Hay una
fuerte tentación a levantar la que tiene el número par, poique la regla menciona
un número par: y esta tentación ha probado ser fatal para la mayoría. Lo cierto
“ es que no importa que haya del otro lado del número par una vocal o una conso-
nante, ya que en realidad la regla no se pronuncia sobre lo que hay del otro lado
de un número par. En cambio, es esencial escogerla taijeta con el número impar:
J ||' si tiene del otro lado una consonante, el resultado no nos dice nada, pero si tiene
s£ una vocal la regla queda invalidada, ya que según ésta la tarjeta debe tener del otro
lado un número par y no un número impar. >
‘::£ p -¿t El hecho de que este problema resulte tan arduo (aunque, una vez explicado,
parezca harto evidente) nos hace vacilar acerca de la fe depositada en la capacidad
lógica de nuestro prójimo y en la nuestra. Pero, a mi entender, la demostración de
«ME& Wason y Johnson-Laird tiene una veta aún más interesante. Consideremos el
s y siguiente problema, en el que se utilizan también cuatro tarjetas, pero en este caso
representativa cada una de ellas de un viaje: de un lado de la taijeta está el lugar de
- destino, y del otro, el vehículo o modo de transporte parallegar a él. En esta oca
sión, las tarjetas llevan impresas las siguientes leyendas: “Manchester” , “Shef-
field” , “tren” , y “automóvil” ; y la regla enunciada es la siguiente: “Cada vez que
voy a Manchester, viajo en tren” . Formalmente, esta regla es idéntica a la de las
letras y números; sin embargo, plantea escasas dificultades a los sujetos. Dehecho,
eL80% de ellos advierten la necesidad de dar vuelta la taijeta que tiene impresa la
palabra “automóvil” ; parecen colegir que si esta taijeta tiene al dorso la palabra
“ Manchester” , la regla queda invalidada; mientras que nada importa lo que figure
|a l dorso de “tren” , ya que, por lo que atañe a la regla enunciada, a Sheffield
í uno puede ir con el vehículo que se le antoje.
gsr ¿Por qué motivo el 80% de los sujetos dan con la respuesta.correcta en este
. problema, y en cambio en el de los números y letras, lógicamente idéntico, sólo
lo logra una décima parte? Posiblemente las personas se desempeñen mejor frente
i¿a problemas que incluyen elementos muy conocidos para ellas; estos elementos les '
permiten ubicarse en la situación e imaginar qué harían o qué sería razonable
‘hacer. De hecho, hay más probabilidades de que el sujeto tenga éxito en el
. problema mencionado si es inglés (y por ende conoce las localidades de Manches-
|te r y Sheffield) y si pertenece a una generación anterior, que utilizaba el tren
| como medio de transporte más a menudo que la actuaL ------ -
fjfggr- Estos resultados desafían, evidentemente, toda idea de que los hombres son
- “máquinas lógicas” capaces de aplicar una misma modalidad de razonamiento con
390 | La nueva ciencia de la mente
Artistas y apicultores
plantean notables dificultades, y que con suma frecuencia las personas extraen
conclusiones carentes de validez. Además, aun los lógicos y los psicólogos que han
procurado una descripción comprensiva de este tema hallaron difícil explicar las
. pautas de los éxitos y fracasos. Estas vicisitudes son consecuencia de que los espe-
..cialistas en razonamiento silogístico presumen que los sujetos, aun cuando ignoren
la lógica formal, de todos modos apelan, para resolver el problema, a alguna
variante de ella (por ejemplo, a medios visuales auxiliares como los círculos de
Euler o los diagramas de Venn).
,ir Estos especialistas han formulado complicadas descripciones para mostrar
cómo aborda los silogismos una persona corriente. En principio, estos métodos
.quizá funcionen —por ejemplo, si la memoria del sujeto es ilimitada y ha apren
dido complicados sistemas de notación matemática—; pero Johnson-Laird ejempli
fica convincentemente que ni siquiera’un universitario talentoso puede proceder
i. .según estos métodos: “Las actuales teorías son demasiado endebles para soportar
el peso de la razón humana” , afirma (1983, pág. 93). A veces, los teóricos logran
dar cuenta de los errores de deducción, pero no de la racionalidad que muestran
los sujetos; otras veces son capaces de explicarla capacidad del sujeto para razonar
adecuadamente en condiciones ideales, pero en cambio no nos esclarecen el tipo
•• de errores que cometen. El asunto consiste en brindar una explicación que a la vez
: :dé cuenta de la racionalidad y del error. Para ello, Johnson-Laird hizo su gran
aporte a la ciencia cognitiva: la noción de modelo mental.
Nos pide que imaginemos que tenemos el poder de convocar a todos los
individuos que desempeñan una o más de las ocupaciones enunciadas en esas
.premisas. Es evidente que puede haber individuos que sean a la vez artistas, apicul
tores y químicos, vale decir, que desempeñen la tríada de roles pedida. En el
modelo mental, se los representaría del siguiente modo:
artista-apicultor-químico
artista-apicultor-químico
artista-apicultor-químico
También sabemos que puede haber individuos que sean apicultores y quími
cos, pero no artistas:
apicultor-químico
apicultor-químico
.. apicultor-químico
Y el sentido común (así como una consideración atenta del problema) nos
informa, finalmente, que puede haber químicos que no sean apicultores:
químicos
químicos
químicos
39 2 | La nueva ciencia de la mente
Con esto hemos creado un modelo mental que contiene toda la información
que puede extraerse directamente dé las premisas. Vemos que hay tres categorías
de individuos: los que desempeñan las tres ocupaciones, los que son apicultores y
químicos, y los que son sólo químicos. (El hecho de que yo haya indicado tres
ejemplos en cada categoría es puramente accidental; se pueden convocar tantos
especímenes como uno desee.) Interpretando estos ordenamientos, podemos
responder las preguntas que nos hemos formulado o sacar conclusiones. Por
ejemplo, si queremos determinar si todos los artistas son también químicos, con
solo mirar las tablas que tenemos frente a nosotros confirmamos que así es.
La importancia del enfoque de Johnson-Laird radica en que procede por un
camino distinto de los que siguen, explícita o implícitamente, las leyes de la lógica
formal. Aquí no hay necesidad alguna de traducir las premisas, ya sea de manera
tácita o explícita, diciendo que todas las p son q, y todas las q son r, para luego'
deducir, conforme a algún algoritmo, lo que se desprende de ello. Tampoco hay
necesidad de trazar círculos que se superpongan (encamación visual de la lógica
formal en un sistema como el de Euler) y a pártir de allí interpretar cuáles son los
rasgos que se superponen en cada circunstancia. Más bien, al construir el modelo
mental, el individuo simplemente apela al medio que le resulta mis cómodo (pala
bras, imágenes o algún elemento híbrido) a fin de representarse la información de
una manera conveniente y accesible para él.
Según Johnson-Laird, ante todo uno se representa de alguna manera los
elementos individuales (en este caso: artistas, apicultores), y se forma así un
modelo mental de la primera premisa. A continuación agrega la infonnación
contenida en la segunda premisa (la de que los apicultores son químicos) al
modelo mental de la primera premisa, tomando en cuenta los distintos modos en
que puede efectuarse esto. Una estrategia conveniente es establecer los ordena
mientos posibles (por ejemplo, si un individuo puede ser apicultor sin ser artista)
recurriendo a la menor cantidad de “actores imaginarios” —aunque, como apunté
antes, la cantidad precisa de actores descriptos demuestra ser irrelevante respecto
de las inferencias silogísticas que a la postre se extraen—. Por último, una vez cons-.
truidos todos estos cuadros mentales, se pone a prueba el conjunto integrado por
ellos, buscando una interpretación de las premisas que sea incompatible con el
modelo. Una inferencia es válida si, y solo si, no hay ningún modo de interpretar
las premisas que sea compatible con una negación de la conclusión.
En el ejemplo dado, es posible arribar a una conclusión válida construyendo
un solo modelo mental. La solución es, pues, comparativamente sencilla, y no hay
necesidad de apelar'a la enorme cantidad de posibilidades combinatorias de las que
están plagados los enfoques convencionales del razonamiento silogístico. Desde
luego, otros problemas son mucho más complejos. Por ejemplo, Johnson-Laird
introduce las siguientes premisas silogísticas:
Todos los banqueros son atletas.
Ningún concejal es banquero.
13. ¿Hasta qué punto es racional el ser humano? | 393
: -__Si el lector piensa que este silogismo es sencillo, pronto se dará cuenta de que
no es así (y aun cuando crea que es difícil, probablemente falle en su solución).
De hecho, como muestra Johnson-Laird, sólo existe una conclusión ineluctable:
Los silogismos constituyen sólo uno de los muchos ámbitos estudiados por
Johnson-Laird en su afán de demostrar la utilidad de su enfoque de los modelos
mentales. En un libro reciente, MentalModels [Modelos mentales] (1983), aplica
dicho enfoque con notable éxito a temas tales como la inferencia, el significado de
las palabras, la gramática y la comprensión del discurso. En cada uno de estos
casos, describe la índole del problema que se debe resolver y los modelos explica
tivos propuestos (incluidos los basados en proposiciones, esquemas, imágenes, y
otros ingredientes de la dieta del científico cognitivista), y procura mostrar por
qué su método de los modelos mentales esclarece los procesos que operan en los
13. ¿Hasta qué punto e s racional el ser humano? | 395
seres humanos y puede a la vez ser eficazmente realizado por una computadora.
Esto es algo más que una serie de demostraciones válidas: constituye una persua
siva argumentación en favor de cierto método para la ciencia cognitiva. La obra
\ Mental Models bien puede servir como modelo mental para la siguiente generación
de científicos cognitivistas.
Pero cuando se trata de describir en qué consiste un modelo mental, y en qué
difiere de oti¿s descripciones, Johnson-Laird no logra el mismo éxito. Quizá lo
i que ocurre es que exige demasiado de un concepto único —por ejemplo, cuando
declara que “todo nuestro conocimiento del mundo depende de los modelos
mentales” (1983, pág. 419)—. Stich, quien no ve con malos ojos la obra de John
son-Laird, sostiene empero que “ha sucumbido a la tentación de considerar que su
incipiente teoría de los modelos mentales soluciona el problema de todo el
f mundo” (Stich, 1984, pág. 189).
I . Johnson-Laird parece advertir esta dificultad, aunque quizá la considere más
■> bien una coyuntura favorable que un obstáculo; así, ha subrayado la versatilidad
f de sus modelos:
estos últimos, más úien que una función de una capacidad especial o general de la
persona que razona. Así es como existen apreciables d ferencias en el razonamien
to de una persona según el tema de que se trate, pese a que desde un punto de
vista formal todos los temas pueden exigirle el mismo grado de pericia lógica y aun
la aplicación de los mismos principios lógicos.
Los análisis efectuados por Johnson-Laird, Wason y D’Andrade sugieren que,
para entender el razonamiento lógico de los seres humanos, en lugar de atr huirles
algún tipo de cálculo lógico-formal es mejor prestar atenc ón a dos factores, uno
de ellos vinculado con el contenido —cuanto mayor sea la familiaridad del sujeto
con un problema, y más r eos los esquemas pertinentes de que dispone, más
pronto habrá de resolverlo— y el segundo con la forma —el sujeto resuelve el
problema en la medida en que es capaz de construir modelos mentales que repre
sentan la información pertinente de modo apropiado, y los utiliza en forma fle
xible-. Quedan en pie algunos interrogantes muy fecundos para la psicología
evolutiva y educativa: ¿Cómo se aprende a construir tales modelos mentales?
¿Cómo se los integra con el conocim ento del “mundo real” ? ¿Cómo se los saca
a relucir en las circunstancias apropiadas?
Si Johnson-Laird y compañía están en lo cierto, tal vez se compruebe que la
clase de principios establecidos por los lógicos e invocados por investigadores
como Piaget sólo tienen limitada aplicación a nuestra manera de razonar en el
mundo real. Aparentemente, la evolución nos ha constituido de tal modo, que
tenemps. mayores probabilidades de lograr éxito en aquellas tareas que contienen
elementos con los que estamos familiarizados, y que nos permiten la pronta cons
trucción y manipulación de modelos mentales. Quizás las argumentaciones de la
lógica pura —un campo de estudio que surgió mucho después de .que nuestros
mecanismos de supervivencia ya estuvieran implantados—sean útiles para ciertas
clases de información, ciertas circunstancias y ciertos individuos; pero la lógica no
nos ofrece un modelo válido que explique cómo resuelven la mayor parte de los
hombres la mayoría de sus problemas en la mayoría de las ocasiones.
Los resultados de que han dado cuenta Tversky y Kahneman, así como los
reunidos por Johnson-Laird, Wason y otros estudiosos, no han pasado inadvertidos
ni han sido soslayados por los custodios de la racionalidad humana: los filósofos
profesionales. Uno de éstos, L. Jonathan Cohén, de la Universidad de Oxford, ha
lanzado unaseriedecríticascontraTversky.Kahnemany sus colegas. Cohén (1981)
asestó, por así decir, tres grandes bofetadas a la idea de que la mayoría de los indi
viduos no se conducen de manera lógica o racional. Su primer sacudón consiste
en sostener simplemente que es el hombre de la calle el que debe determinar qué
es lo racional; él es el árbitro supremo, y los hallazgos que los estadísticos o los
experimentadores quieran imponerle carecen, estrictamente hablando, de signifi-
catividad. Según esto, los individuos pueden, desde luego, cometer enores, pero
salvo estos problemas de “ejecución” , hay que partir de la base de que el hombre
corriente es competente. Después de todo, nadie cuestiona los enunciados grama
ticales tal como vienen dados por él; por ende, los vinculados con la razón deben
gozar del mismo crédito. Esta línea argumental tiene, quizá, cierto grado de
persuasividad, pero en definitiva me parece anticientífica ya que en esencia cierra
toda discusión. Si cualquier ser humano (sea cual fuere su edad o su estado
mental) -es considerado racional, sin tomar en cuenta cuál es efectivamente su
razonamiento y sin preocuparse por qué concuerda con los demás, entonces
no hay modo alguno de estudiar la racionalidad. Esta sería ubicua e inmodifica-
ble.
Una segunda crítica de Cohén sostiene que es ilógico suponer que los indivi
duos corrientes puedan conocer las leyes de probabilidad y otras regularidades •
estadísticas; la mayor parte de los descubrimientos de que se ha informado refle
jan falta de instrucción o de conocimientos especiales, más bien que fallas en
la cognición. De acuerdo con estos argumentos, todos seriamos superracionales''
si recibiéramos una formación especializada. Nadie se ha ofrecido basta ahora a '
adiestrar a Juan Pueblo en las leyes de la probabilidad, aunque hay abundantest
pruebas y anécdotas experimentales que sugieren que hasta los expertos más*
avezados exhiben el tipo de sesgos comprobados por Tversky y Kahneman (Kah-T
neman, Slovic y Tversky, 1982). • - ,Ua¿e
La tercera crítica de Cohen(y a mi juicio la más interesante) pone en tela de L
juicio la pertinencia de leyes estadísticas como el teorema de Bayes. Según este’,
402 | La nueva ciencia de la mente
es de 1/5, y con ello no violan la ley de Bayes. Que los colores de los automóvi
les varíen efectivamente en una proporción del 85 al 15 % bien puede ser irrelevan
te para esta estimación. Después de todo, este hecho ni aumenta ni disminuye la
probabilidad de que la identificación del color de un auto específico sea correc
ta, en la situación en que la efectúa ese testigo particular. Como dice Cohén, “una
probabilidad válida uniformemente para todos los sucesos de una clase, porque se
basa en propiedades causales como la fisiología de la visión, no puede ser modifi
cada por hechos tales como las distribuciones aleatorias, que no tienen ninguna
eficacia causal en los sucesos individuales” (1981, págs. 328-29).
Cohén suministra otro ejemplo mucho más habitual. Supongamos que una
persona padece una enfermedad que puede ser A o B, y se sabe que la enfermedad
A se presenta con una frecuencia 19 veces m ayor que B. Las dos afecciones son
igualmente fatales si no se las trata, pero es peligroso combinar los respectivos
tratamientos. El médico pide al enfermo hacer un análisis que, según se sabe,
permite formular un diagnóstico diferencial correcto en el 80% de los casos.
Efectuado el análisis, indica que el sujeto padece la enfermedad B, o sea, la más
infrecuente de las dos. ¿Escogería, de todas maneras, el tratamiento apropiado
para la enfermedad A? De acuerdo con la concepción de Bayes, tal es lo que
debería hacer. Teniendo en cuenta la distribución previa de las enfermedades, la
probabilidad de que el sujeto padezca la enfermedad A será 19/23. Pero bien
podría hacer caso omiso de dichas probabilidades previas, partiendo de la base de
que la probabilidad de que él sufra la enfermedad B es 4/5 (80%). Según Cohén,
es ilógico que un paciente responda en términos de las probabilidades globales, y
no en función del diagnóstico particular que se le ha hecho. Paradójicamente, si se
siguieran al pie de la letra las indicaciones de los manuales de estadística, el solo
hecho de efectuar el análisis sería una pérdida de tiempo, ya que sean cuales
fueren sus resultados, sobre bases estadísticas lo más prudente sería presumir que
se padece la enfermedad A, o sea, la estadísticamente más común.
Cohén discierne que hay aquí diferentes cosas en juego. Por ejemplo, si el
director de un hospital quisiera asegurar un alto índice de diagnósticos correctos
a un costo mínimo, haría bien en regirse por las leyes de las probabilidades genera
les, y por ende suprimir el análisis en cuestión. Pero al paciente lo que le interesa
es lograr éxito en su caso particular, y no le importa para nada el éxito probabilís-
tico del sistema a largo plazo; por lo tanto, lo que debe hacer es evaluar los resul
tados del análisis respecto de sus propias posibilidades. Nada pueden importarle
los éxitos de los diagnósticos en serie o a largo plazo.
Al sugerir que los factores que influyen en los que propugnan atenerse a las
leyes estadísticas río son los mismos que los que afectan al individuo que debe
tomar una decisión sobre su propia vida, Cohén nos está diciendo algo interesante.”
Sin embargo, con esto no se ha granjeado la simpatía de otros especialistas en el
discernimiento humano, como por ejemplo los que comentaron su artículo en=
The Behavioral and Brain Sciences (Cohén, 1981). Lo acusaron de ser un apologis- -
404 | La nueva ciencia d e la mente
ta del error y del statu quo, de anular todo el saber adquirido por la ciencia, de
ser incapaz de exponer coherentemente un argumento o razonamiento, y por lo
tanto tener que recurrir a afirmaciones e ilusiones carentes de base. Estas críti
cas son harto severas, y dan la impresión de que Cohén puso el dedo en la llaga;
pero, a mi modo de va-, él no demostró que la gente sea lógica (que era lo que pre
tendía demostrar), sino que en verdad nos ha suministrado nuevas pruebas de que
las personas se apartan sistemáticamente de la lógica y la racionaliddad. También
ha venido a recordamos que actuar de acuerdo con lo que entendemos como nues
tros propios intereses no es necesariamente' lo mismo que formular un juicio
acerca de cuál es el resultado más probable de algún suceso hipotético.
Pueden agregarse algunas otras consideraciones. En primer lugar, Ja evolución
de los seres humanos les ha permitido sobrevivir en cierto tipo de medios bioló
gicos y sociales, aunque ello no respondiera a las nociones abstractas de la lógica.
Bien puede ser que el tipo de inducciones y deducciones que los individuos efec
túan habitualmente (y aun reflexivamente) sean las que tienen más probabilida
des de permitirles sobrevivir. En tal caso, serian racionales en este sentido absolu
to, aun cuando parecieran irracionales a la luz de los principios que se exponen en
los textos.
Otra línea argumental subraya los sesgos introducidos en los paradigmas
psicológicos que gozan de mayor favor. En la medida en que los experimentos
entrañan tretas o ilusiones, tienen limitada conexión con la mayor parte del
comportamiento cotidiano. Por cierto, si se introducen triquiñuelas en las pregun
tas que se formulan a los sujetos, no es difícil que éstos den respuestas erróneas,
o aun que parezcan necios. En una oportunidad, Piaget y su colega Barbel Inhel-
der diseñaron una prueba en la cual daban a niños pequeños cinco tulipanes y dos
rosas, y luego les preguntaban “ ¿Hay aquí más tulipanes o más flores?” (Inhel-
der y Piaget, 1964). Los ñiños de menos de siete años de edad respondían que
había más tulipanes, ignorando en apariencia que la palabra “flores” abarca a los
tulipanes y a las rosas. Piaget e Inhelder llegaron confiados a la conclusión de que
los niños pequeños son incapaces de comparar un conjunto total (el de las flores)
con uno de sus subconjuntos (el de los tulipanes). Pero como puntualizó el filóso
fo Jonathan Adler (1984), suponer que los niños son incapaces de establecer tales
comparaciones es harto simplista; más bien lo que ocurre es que no prevén que
habrán de formulárseles preguntas que transgreden las normas del habla ordinaria
acerca de lo pertinente y “significativo” . Es probable que supongan, ante una
pregunta de esa índole, que la comparación que se les pide hacer es la palmaria
para la percepción —¿hay más tulipanes o más rosas?—, y no esta otra, oscura o
directamente tramposa: ¿hay más tulipanes, o más tulipanes + rosas? Según este
análisis, los niños responderían correctamente en caso de que se les pidiera
comparar, de manera legítima, una subclase con la clasé total a la que pertenece.
Y de hecho, cuando se le plantean tales interrogantes (por ejemplo, ¿hay más
13. ¿Hasta qué punto es racional el ser humano? | 405
relevantes, por cuanto muestran de qué manera los seres humanos transgreden
rutinariamente los principios normativos de- la inferencia, la probabilidad y la
adopción de decisiones. Kyburg rechaza la idea de Cohén según la cual los patro
nes de la racionalidad deben ser las intuiciones de las personas corrientes, y
afirma: “No nos resulta nada clara la significatividad que una indagación de esta
índole pueda tener respecto del desarrollo de los cánones normativos de la cohe
rencia lógica inductiva o deductiva, del mismo modo que la indagación de las
intuiciones aritméticas de la gente puede no ser significativa para el desarrollo
de los cánones de validez aritmética” (Kyburg, 1983, pág. 232). No obstante,
admite que “los estudios empíricos pueden sugerimos ciertos datos pertinentes
para el desarrollo de restricciones normativas” (pág. 244). Una teoría de esta espe
cie debe basarse tanto en los factores normativos como en lo que la gente efec
tivamente hace. Y concluye aseverando lo siguiente:
Los mensajes que nos envían Cherniak y Kyburg desde las filas filosóficas son
importantes para nuestros fines. En lugar de prescindir por completo del tema de
la racionalidad y concluir que los trabajos empíricos son irrelevantes al respecto,
interpretan que el estudio de la racionalidad es una empresa conjunta, donde parti
cipan los hallazgos experimentales así como las elucidaciones y distinciones esta
blecidas por los filósofos. Dejan abierta alposibilidad de que los sujetos puedan
apartarse de los cánones estrictos de la lógica y aun así presentar una variante
verosímil de la racionalidad. Vemos operar aquí un modelo ecuménico de la cien
cia cognitiva. En lugar de que las ciencias particulares formen bandos aislados
‘—como lo han hecho, verbigracia, en el estudio de la psicolingüística-, hay en este
caso un diálogo más amplio entre filósofos que continúan cavilando acerca de un
problema clásico, y científicos empíricos que han diseñado ingeniosos métodos
para abordar esas venerables cuestiones. Y si bien los ejemplos que hemos dado
pertenecen en gran medida al campo de la psicología, en modo alguno se limitan a
ésta disciplina. Como ya he sugerido, los temas explorados por Wason y Johnson-
Laird, por Tversky y Kahneman, involucran también problemas lingüísticos (¿de
qué manera se formulan las preguntas en cada caso?), pueden aplicarse a diversos
contextos'antropológicos (¿cómo razonan distintas poblaciones, que exhiben
sesgos diferentes?), y puede simulárselos instructivamente mediante los procedi
mientos de la inteligencia artificial (como hizo Johnson-Laird en sus trabajos).
13. ¿Hasta qué punto es racional el ser humano? | 40 7
En verdad, de todas las ciencias cognitivas, sólo la neurociencia parece muy apar
tada de estos trabajos sobre la lógica, el razonamiento y la racionalidad. Y aún no
se ha examinado lo bastante si éste es un fenómeno pasajero o si en general el
reino de las creencias racionales y lógicas opera en un nivel distinto del de la neu
rociencia.
Conclusiones
revista a los temas fundamentales de la ciencia cognitiva a la luz de las reseñas que
he efectuado y las corrientes de investigación expuestas. Para concluir, formularé
mis propias opiniones en cuanto a si la ciencia cognitiva ha estado a la altura de
sus promesas iniciales, y esbozaré las principales paradojas y desafíos que enfrenta
en la actualidad.
- -“: f -
14 Conclusión: La paradoja computacional
y el desafío cognitivo
advirtiendo cada vez más que cada ciencia humana y conductal, practicada por
separado, tema netas limitaciones que la invalidaban. La ambivalencia déla filoso
fía en cuanto a la significatividad de los datos empíricos para resolver cuestiones
epistemológicas de antigua data, la dificultad de la psicología para amoldar los
enfoques experimentales a problemas en gran escala, los escollos que encontraba
la antropología para trascender los estudios de casos singulares, las ambiciones de
la neurociencia por examinar capacidades humanas que se rehusaban a que se las
redujera al nivel neural: todo ello volvía urgente la necesidad de que estas diver
sas ciencias fueran secundadas por sus disciplinas vecinas.
Lo decisivo fue, quizá, la confluencia de diversas demostraciones matemáticas
y lógicas (por ejemplo, las emprendidas por Shannon, Turing y von Neumann)
con los grandes avances técnicos que culminaron, alrededor de mediados de siglo,
en la creación de las primeras computadoras. Una vez que se probó el poder de
estas máquinas para abordar materiales simbólicos, muchos estudiosos se conven
cieron de que la ciencia de la cognición podía plasmarse a imagen y semejanza
de la computadora. Hacia 1956, psicólogos como George Millery Jerome Bruner,
especialistas en computadora como Alien Newell y Herbert Simón y lingüistas
como Noam Chomsky ya habían llevado a cabo trabajos que, vistos en retrospec
tiva, eran de neto espíritu científico-cognitivo. Y treinta años más tarde, basándo
se ,en esos esfuerzos pioneros, investigadores como David Marr y Stephen Kosslyn
(operando en el punto de intersección de la psicología perceptual y la inteligencia
artificial), Eleanor Rosch (que combinó las inquietudes psicológicas con las
antropológicas) y Philip Johnson-Laird (quien sintetizó los enfoques tomados de
la filosofía, la psicología, la lingüística y la inteligencia artificial) demostraron que
era posible efectuar netos progresos en la resolución de estos antiguos interrogan
tes filosóficos y científicos. Aunque en los trabajos referidos a la percepción se ha
avanzado mucho más que en las investigaciones sobre la clasificación o sobre la
racionalidad, parece razonable declarar en 1985 que la ciencia cognitiva ya ha
•llegado a su mayoría de edad.
En consecuencia, tanto para la historia de esta ciencia como para nuestra rese
ña, es oportuno resumir sus principales temas, a fin de aclarar qué se ha logrado en
las últimas décadas y discernir qué debe lograrse aún si ella quiere desplegar toda
su potencialidad. Esta evaluación nos exigirá examinar el concepto central de la
ciencia cognitiva, vale decir, el concepto de nivel representacional, así como volver
sobre dos cuestiones a las que ya habíamos aludido en los capítulos iniciales:
la para.doja computacional y el desafío cognitivo.
Pienso que el mayor logro de'la ciencia cognitiva ha sido liaber demostrado
palmariamente que es válido postular un nivel de representación mental, vale
decir, una serie de constructos que pueden invocarse para explicar los fenómenos
14. La paradoja computacional y e I desafio cognitivo | 411
pero ningún organismo puede optar en lo que respecta a estas etapas, y ellas sólo
le resultan accesibles al científico cognitivista.
Una segunda especie de representación abarca los comportamientos dasifi-
catorios y de resolución de problemas, que los sujetos llevan a cabo con cierta
flexibilidad y en forma más o menos explícita y consciente. Al analizar una ora
ción o un relato, al crear o transformar una imagen, el sujeto bien puede perca
tarse de haber creado una representación mental —o modelo mental—, sobre la
cual efectuará luego determinadas operaciones. No es forzoso que tenga concien
cia explícita de ello, pero al menos existe la posibilidad de que la tenga. Por aña
didura, puede optar por modificar la modalidad de representación o el tipo de
regla invocada. Es apropiado describir esta actividad mental con un lenguaje
representacional, pero a todas luces su status (o terminología) no puede ser el
mismo que el correspondiente a las representaciones que son automáticas y posi
blemente preconectadas \wired m].
Bien puede ocurrir que existan muchas variedades de representación, o que
éstas se extiendan en un continuo que va de lo implícito a lo explícito, de lo
preestipulado, en el soporte material a lo programado de manera flexible. Pero a
menos que sea posible concordar en tomo de alguna taxonomía, todo debate
referido a las representaciones parecerá ad-hoc e insatisfactorio. Si la representa
ción es verdaderamente Ja pieza clave de la ciencia cognitiva, debe establecér
sela con la misma claridad y aceptación que la teoría dejos cuantos en la física o
el código genético en la bioquímica. Y parecemos estar muy lejos todavía de
este claro consenso.
La paradoja computacional
Ja fecha. Por más que Jas computadoras sean primordiaJes para ayudarnos a deter
minar hasta qué punto nos asemejamos a ellas, quizás el veredicto final sea: “No
nos parecemos mucho” . ........
Pero aun cuando las computadoras surjan como modelos viables para ciertas
facetas del pensamiento humano, sigue en pie la cuestión vinculada a los diversos
aspectos de la naturaleza del hombre que los científicos cognitivos pusieron entre
paréntesis. Como apunté en ej capítulo 3, casi todos ellos han estado contestes en
excluir dej examen factores nada triviales, como el papel del contexto circundan
te, los aspectos afectivos de la experiencia y la repercusión de los factores cultura
les e históricos en el comportamiento y la conducta (véase Norman, 1980). Algu
nos entienden que ésta es sólo una estiategia temporaria, hasta que se hayan
desentrañado los aspectos comparativamente discretos de la cognición; pero otros
son más rotundos y afirman que la ciencia cognitiva nunca deberá ocuparse de
estos aspectos, o incluso que una descripción científico-cognitiva volverá a la
postre innecesaria toda relación de estos factores “turbadores” .
El examen, siquiera breve, de cada uno de estos temas “puestos entre
paréntesis” llevaría muchas páginas; y como los propios científicos cognitivistas
se apartaron de estas cuestiones, hay en estas disciplinas muy pocos trabajos en
los que pueda apoyarme al respecto. Creo que en última instancia la ciencia cogni
tiva tendrá que abordar estos factores de una de estas dos maneras: o bien pro
poniendo una descripción cognitjva de los afectos que, verbigracia, considere los
estados emocionales como valores cuantificados a lo largo de una dimensión (p.
ej., la felicidad o la crueldad), o bien optando por un marco explicativo complejo,
que permita de algún modo forjar un modelo para la interacción de los factores
cognitivos tradicionales con los factores afectivos o culturales. Estos empeños,
pese a su enorme importancia, serán de muy difícil ejecución y serán de escasa
ayuda para esto las consideraciones computacionales clásicas.
Los estudiosos discrepan mucho entre sí en cuanto al grado en que estos otros
factores pueden, a la postre, absorber a los cognitivos. Desde la perspectiva de
un filósofo como Hubert Dreyfus, un lingüista como Roy Harris, un psicólogo
como Benny Shanon, un antropólogo como Clifford Geertz, dichos factores son
tan fundamentales, tan constitutivos de la experiencia humana, que deberían tener
primacía respecto de los factores cognitivos .Esta concepción no deja de atraer mis 7 '
simpatías, pero a mi juicio la cognición posee un territorio central del que puede
dar cuenta en sus propios términos, sin necesidad de referirse a (o basarse en) ,
esos otros elementos, sin duda importantes. Es ese territorio central el que he pro
curado describir en esta obra, y en particular en los cuatro últimos.capítulos. Sus
fronteras quizá determinen ios límites de la ciencia cognitiva.--....- ,<«/,,
Mis propias dudas respecto de'Ia Computadora como modelojcector del pensa
miento humano proceden de dos argumentaciones principales. Como ha subraya
do Hilary Putnam (1981), el papel que cumple.la .comunidad qúe^circunda al indi
viduo cognoscente es decisivo. A partir de quienes nos rodean.Ilegamos a compren-.
416 | La nueva ciencia de la mente
E l desafío cognitivo
nante que el hecho de que se ocupe de los problemas del lenguaje o de la interac
ción social. Ahora bien: esta organización en tomo de las disciplinas tradicionales
sería correcta si los ámbitos efectivos de la cognición no establecieran una diferen
cia relevante; en la medida en que se considere que los mismos procesos aconte
cen con independencia del contenido de un dominio del saber (por ejemplo, en la
cognición de la música o en la del espacio), tiene sentido atenerse a la división
del trabajo convencional
Mi opinión al respecto, por cierto controvertible, es muy distinta. Desde mi
punto de vista, tal como procuré establecerlo en este libro, las divisiones funda
mentales dentro de la ciencia cognitiva no están dadas por las perspectivas de las
disciplinas tradicionales, sino más bien por el contenido cognitivo específico de
que se ocupen en cada caso. Así, los estudiosos deberían diferenciarse según el
ámbito cognitivo central que investigan: habría dominios generales, como los
del lenguaje, la música, el conocimiento social o el pensamiento lógico, y otros
subdominios más circunscriptos, como los del procesamiento sintáctico, las pri
meras fases del procesamiento visual o la percepción del ritmo. Tanto la formación
de los científicos como las investigaciones deberían organizarse cada vez más en
tom o de estos problemas; y al trabajar en ellos, combinarían sus concepciones,
por fuerza diferentes, a fin de llegar a una elucidación cabal del dominio cognitivo
que los atarea en ese momento. En tal caso, el cuadro científico-cognitivo último
del procesamiento sintáctico, o del lenguaje en su totalidad, sería una descripción
representacional coordinada, que abarcaría toda la gama de las disciplinas tradi
cionales sin siquiera mencionarlas.
No obstante, el tema de las disciplinas, o bien, en términos más generales,
-de los niveles explicativos, no puede soslayarse por entero; y aquí nos enfrentamos
con el principal desafío de los estudios cognitivos contemporáneos. Una vez esta
blecida la legitimidad del nivel representacional, los estudiosos de este ámbito
deben ver cómo se corresponde este nivel con las otras formas legítimas (y legiti
madas) de interpretar las actividades humanas. Durante algún tiempo, los que
creían en el nivel representacional siguieron su propio camino, hasta entonces
inexplorado —y la adhesión a este programa unilateral fue, precisamente, el rasgo
genial de la generación precursora de la década de 1950—. Pero a la postre este
espléndido aislamiento debe desbaratarse para llegar a entender de qué manera la
cultura está inscripta en el cerebro de los hombres; y la vía regia para esa compren
sión será el nivel representacional.
La razón de estas vinculaciones entre niveles es simple, pero decisiva. A menos
que pueda conectarse la significación de la labor emprendida en cada ciencia con
la que se acomete en las vecinas, no podra apreciarse la importancia y las limitacio
nes de esa tarea. No hay por qué temer que desaparezcan la física, la química y
la biología, pese a los vínculos-vitales, articulados y necesarios, que cada una de
ellas mantiene con el nivel siguiente a través de otras disciplinas “ fronterizas”
como la bioquímica o la fisicoquímica.
14. La paradoja computacional y el desafio cognitivo | 4 19