miércoles, 29 de abril de 2015

La era de las relaciones y del conocimiento

Pero volvamos a la era actual, dominada por la omnipresencia de internet, al menos para el 40% de la humanidad que está "conectada". 


La comunicación, como hemos visto, es una necesidad fundamental del ser humano, asociada a su propia finalidad y al surgimiento de su conciencia. El hombre se construye tanto en el contacto con las cosas como en el contacto con sus semejantes. Internet se le presenta como un valioso recurso en estas dos dimensiones: le permite acceder a otras persona (establecer y desarrollar relaciones interpersonales) y al contenido de la cultura, a los conocimientos acumulados por toda la humanidad. 

En una primera etapa de la "vida" de internet, se la percibió esencialmente como medio de intercambio del conocimiento y se habló del surgimiento de la "Era de la información" o "Era del conocimiento". Y fue sin duda su dominante en la primera década de la web. Pero luego surgió algo imprevisto: se descubrió su poder para relacionar a las personas, y las redes sociales pasaron a ser el recurso más utilizado. Así, internet llegó a cubrir las dos principales necesidades del hombre: "ser con otros" y "saber para ser". 

Gracias a internet, el acceso al saber es cada vez más universal tanto en cuanto a los conocimientos como a quienes los pueden obtener. Al mismo tiempo que los computadores ofrecen medios cada vez más potentes de investigación y, por lo tanto, de descubrimiento, internet pone rápidamente éstos a disposición de todos. “El metabolismo del conocimiento se está haciendo más rápido”, nos decía ya Toffler en 1990 (El cambio del poder, p.490). En 2013, los datos de internet, en su mayoría aportados por los usuarios, representaron 1.000 exabytes (un exabyte es igual a un trillón de bytes). Todos los días se crean 2,5 trillones de bytes de datos. El 90% de los datos existentes en el mundo de hoy se ha creado en los últimos dos años. A cada minuto se genera en el mundo datos por el equivalente a 360.000 DVD y la generación de información crecerá 50 veces a lo largo de la próxima década según el banco canadiense CIBC (Business Insider, 12/05/2014). 

Pero ésto no significa que más cultura y más saber llegarán necesariamente a “las masas”. Los estudios sobre difusión cultural siguen mostrando que quienes ya saben más tienden a buscar más, mientras quienes están menos formados se preocupan menos de incrementar su formación. En esta materia, la clave está en la educación, no en lo que ofrezca internet. El desarrollo de internet como fuente de conocimiento está dando origen a un nuevo tipo de usuario calificado: el nómada del conocimiento (knowmad), alguién capaz de aprender, compartir –creando redes– y trabajar sobre la información en cualquier contexto y, para ello, es conveniente que tenga formación en múltiples materias, con amplia perspectiva. 

Pero, en materia de conocimiento, la red es una inmensa madeja desordenada. Presenta lo que Chris Anderson llamó una "larga cola" de contenidos, algunos de los cuales llegan a ser muy conocidos mientras otros quedan "a la cola", al extremo derecho de la curva descendente de frecuencia de lectura u observación. Pero, si bien existe un enorme desorden y grandes diferencias en cuanto a calidad de contenidos, existe también la enorme ventaja de la variedad y multiplicidad. Practicamente podemos encontrar lo que sea que busquemos. Y, si no está y sabemos algo al respecto, lo podemos agregar, por ejemplo en un blog o en la Wikipedia. Es lo que explica el éxito de Netflix y Spotify: no se basan solo en los grandes éxitos de audiencia, se basan en que muchos contenidos pueden haber sido descargados pocas veces, es decir en la "larga cola", y en que la suma hace el conjunto rentable, algo que sería imposible en una tienda física. 

Las consecuencias para la educación son críticas, como nos advierte Edgar Morin. Internet presenta una enorme cantidad de conocimientos, pero no los relaciona entre sí: "Hemos llegado a la sociedad de los conocimientos separados unos de otros, lo que nos impide relacionarlos para concebir los problemas fundamentales y globales, tanto de nuestras vidas personales como de nuestros destinos colectivos." (La vía..., p.142). Son conocimientos fragmentados y aislados, difíciles de agrupar en conocimientos fundamentales y globales, que -además- nos aparecen fuera de contexto.

    "Nuestro modo de conocimiento no ha desarrollado suficientemente la aptitud para contextualizar la información e integrarla en un conjunto que le dé sentido. Sumergidos en la sobreabundancia de informaciones, cada vez nos es más difícil contextualizarla, organizarla y comprenderla. [...] La reforma del conocimiento exige una reforma del pensamiento. La reforma del pensamiento exige, por su parte, un pensamiento capaz de relacionar los conocimientos entre sí, de relacionar las partes con el todo y el todo con las partes, un pensamiento que pueda concebir la relación de lo global con lo local, de lo local con lo global. Nuestras formas de pensamiento deben integrar un vaivén constante entre dichos niveles." (La vía..., p.141)
Todo docente, todo comunicador, debe tener en cuenta este carácter de fragmentación de los contenidos digitales y debe preocuparse de recontextualizarlos, de enseñar a pensar críticamente. El periodista debe situar la noticia, debe proporcionar enlaces a información complementaria. "La enseñanza de los conocimientos pertinentes debe ser, en primer lugar, una iniciación a la contextualización." (ibidem, p.151) El profesor debe invitar a buscar más información, comparar y evaluar. Y, si enseña comunicación, por sobre todo, debe enseñar que es el conocimiento y como se construye.
    "La enseñanza actual proporciona conocimientos sin enseñar qué es el conocimiento. No se preocupa de conocer qué es conocer, es decir, no estudia los dispositivos cognitivos, sus dificultades, sus debilidades ni su propensión al error, a la ilusión. Porque todo conocimiento comporta un riesgo de error y de ilusión." (p.149)

Referencias
Textos de Edgar Morin:
La vía para el futuro de la humanidad, Barcelona, Paidos, 2011.
Los siete saberes necesarios para la educacion del futuro, París, Unesco, 2011.
La méthode, Paris, Seuil (En español: El método: 3. El conocimiento del conocimiento).

miércoles, 22 de abril de 2015

Informática para el conocimiento


Se puede considerar a Charles Babbage (Inglaterra, 1792–1877) y a su amiga Augusta Ada Byron (1815–1852) como los principales precursores de la computación, ya que concibieron un modelo conceptual de máquina llamada “Motor analítico” que tendría un “molino” (“mill”) – que sería su centro lógico (equivalente a la unidad aritmética de hoy) –, una unidad de control y una memoria, y sería capaz de manipular símbolos siguiendo reglas definidas. Y aseguraban que no había ninguna razón por la cual estos símbolos sólo debieran ser números y ecuaciones. 

Sin embargo, hubo que esperar la década de 1930 para ver la construcción de las primeras máquinas capaces de operar realmente. Entre 1934 y 1939, en Alemania, Konrad Suze construyó dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería el primer ordenador. La “Z1” contaba con un teclado y algunas lámparas que indicaban valores binarios. Posteriormente, la “Z2” fue una versión mejorada, que utilizaba relés electromagnéticos. En 1943, en Gran Bretaña, Alan Turing participó en la construcción del “Colossus”, un ordenador cuya única función era descifrar en pocos segundos los mensajes encriptados generados por la máquina “Enigma” alemana. Funcionaba con 2.400 válvulas y 5 paneles de lectura óptica de cintas perforadas, capaz también de imprimir los mensajes descifrados. 

El primer ordenador, de tipo electromecánico – es decir basado en interruptores magnéticos (electroimanes) –, fue el MARK I, desarrollado por Howard Aiken y James Bryce en la Universidad de Harvard en convenio con IBM, que entró a funcionar en 1944. Este recibía y entregaba información en cintas perforadas, demorándose un segundo por cada 10 operaciones. En 1947, John P. Eckert y John W. Mauchly construyeron, en la Universidad de Pennsylvania, el ENIAC (Electronic Numerical Integrator and Calculator), primer ordenador electrónico, compuesto de 17.468 tubos de vacío (más resistencias, condensadores, etc.), con 30 toneladas de peso. Para efectuar diferentes operaciones, debían cambiarse las conexiones (cables) como en las antiguas centrales telefónicas, lo cual era un trabajo que podía tomar varios días. En 1,5 segundos podía calcular le potencia 5000 de un número de 5 cifras. Este tipo de máquinas constituyó la llamada “primera generación” de los computadores. El mismo año 1947 apareció el transistor, pero hubo que esperar hasta 1955 para que ocuparan el lugar de las válvulas en una nueva generación de máquinas. Pronto llegó la “integración”, es decir la confección de “galletas” (chips) reuniendo múltiples transistores y componentes asociados en una sola pieza de silicio. Producto de este avance, la compañía Intel lanzó en 1971 el primer microprocesador, permitiendo la aparición – diez años más tarde – de los primeros computadores personales (PC). 

Con esta breve retrospectiva – y a la vista de lo que tenemos hoy a nuestra disposición – es fácil ver que la tecnología ha evolucionado en forma cada vez más rápida. El siguiente gráfico muestra esta evolución, dividida en las cinco generaciones o “cambios de paradigma”, mostrando en particular como ha crecido el poder de cálculo en relación al coste de los procesadores. Nótese especialmente que la escala es logarítmica, es decir que cada nueva franja horizontal es una múltiplicación de la anterior (valor exponencial). El gráfico es de R. Kurzweil (p.74):


A mediados de la década de 1970, Gordon Moore, un inventor de circuitos integrados que fue más tarde presidente de Intel, observó cómo cada veinticuatro meses era posible doblar el número de transistores que se podían encajar en un circuito integrado. Es lo que se conoce desde entonces como la “ley de Moore”, que se ha verificado hasta ahora y podría seguir vigente por muchos años gracias a nuevos descubrimientos en materia de física de semi–conductores.
    “La principal fuerza impulsora de la ley de Moore es la reducción en el tamaño de los dispositivos semiconductores, que en todas sus dimensiones se divide por la mitad cada 5,4 años. Dado que los chips son funcionalmente bidimensionales, esto significa un doblaje en el número de elementos por milímetro cuadrado cada 2,7 años.” (Kurzweil, p.64) 
    “A medida que se han hecho más pequeños y menos caros, los transistores también se han vuelto mil veces más rápidos en los últimos treinta años. Esto es así porque los electrones tienen que recorrer menos distancia.” (ibidem, p.68)
El siguiente gráfico ilustra esta evolución de los procesadores fabricados por Intel en relación a su rendimiento. Nótese especialmente que la escala es logarítmica, es decir que cada nueva franja horizontal es una múltiplicación (por 10) de la anterior. El rendimiento de los procesadores medido en MIPS se ha doblado cada 1,8 años y el número de transistores en cada processador se ha duplicado cada año. (De Kurzweil, p.71).

Estamos en una etapa en que los procesadores ya tienen varios núcleos (trabajo en paralelo) y se están empezando a colocarlos en capas (paando de lo bi– a lo tridimensional). También se investigan otras “arquitecturas”, como – a nivel atómico – el uso del espín (giro) de los electrones, de los fotones (fotónica) y incluso de los elementos subatómicos (cuántica) o biológicos (biocomputación). Con todo ello,
  • “El ritmo de cambio de paradigma (la innovación tecnológica) se acelera. En estos momentos se dobla cada década.
  • La potencia (la relación precio–rendimiento, la velocidad, la capacidad y el ancho de banda) de las tecnologías de la información crece exponencialmente a un ritmo todavía mayor. Actualmente se dobla aproximadamente cada año. Este principio es aplicable a una amplia variedad de medidas, incluyendo la cantidad de conocimiento humano.
  • Para las tecnologías de la información existe un segundo nivel de crecimiento exponencial: un crecimiento exponencial en el ritmo de crecimiento exponencial (en el exponente). La razón es la siguiente: a medida que una tecnología se vuelve más eficiente con respecto a sus costes, más recursos se emplean en su desarrollo, de manera que el ritmo de crecimiento exponencial aumenta con el tiempo. Por ejemplo, la industria de los ordenadores en la década de 1940 consistía en un puñado de proyectos que ahora son históricamente importantes. Los ingresos provenientes de la industria de los ordenadores hoy supera el billón de dólares, de manera que los presupuestos destinados a la investigación y desarrollo en este campo son comparativamente superiores.” (Kurzweil, p.27).
  • “Los primeros ordenadores fueron diseñados en papel y ensamblados a mano. Hoy son diseñados en terminales informáticos donde los propios ordenadores idean muchos de los detalles del diseño de la siguiente generación, y después son producidos en fábricas totalmente automatizadas donde la intervención humana es mínima. El proceso evolutivo de la tecnología mejora sus capacidades de forma exponencial y los innovadores buscan multiplicar las posibilidades de mejora. La innovación es multiplicativa, no aditiva. La tecnología, como cualquier otro proceso evolutivo, se construye sobre sí misma.” (ibidem, p.45)
Como lo muestra Kurzweil, el cambio tecnológico es exponencial y pronto será tal que la tecnología de procesamiento podrá ser acoplada directamente al cerebro, multiplicando enormemente el poder de cada uno para conocer. Se abrirá, dice este autor, una nueva era para la humanidad, que "permitirá que nuestra civilización humano-máquina trascienda las limitaciones de las tan solo cien billones de conexiones extremadamente lentas del cerebro humano [...] superando las profundas limitaciones de la evolución biológica" (pp.22-23).
    "Esto ya ha comenzado con la benigna introducción de dispositivos tales como implantes neuronales para aliviar discapacidades y enfermedades. Se harán progresos con la introducción de nanorobots en el torrente sanguíneo, los cuales serán inicialmente desarrollados para aplicaciones médicas y contra el envejecimiento. Más tarde, nanorobots más sofisticados harán de interfaces con nuestras neuronas biológicas para mejorar nuestros sentidos, proporcionando con ello realidad virtual y aumentada procedente del interior del sistema nervioso. También ayudarán a nuestra memoria y realizarán otras tareas cognitivas rutinarias. Entonces seremos cyborgs, y desde ese punto de apoyo en el interior de nuestros cerebros la parte no biológica de nuestra inteligencia expandirá sus capacidades exponencialmente." (p.432)
Será la "quinta época" y podría haber una sexta, en que todo el universo se podría volver inteligente, como mostrado en el post anterior.

Referencia: Kurzweil, R.: La singularidad está cerca, Lola Books, Berlín, 2012.

miércoles, 15 de abril de 2015

¿Una futura "singularidad"?


Pero el futuro de la humanidad, acelerado por la tecnología, podría llevar a un tipo de noosfera muy diferente de la que Teilhard, McLuhan y Toffler pudieron imaginar. 

Nos advierte Kurzweil que la tecnología está avanzando a un ritmo cada vez mayor, porque el cambio tecnológico es exponencial. Actualmente, la potencia de las tecnologías de la información se dobla aproximadamente cada año. Así, “durante el siglo XXI no experimentaremos cien años de avance tecnológico, sino que presenciaremos alrededor de veinte mil años de progreso medidos al ritmo de progreso actual, o alrededor de mil veces más de lo conseguido en el siglo XX” ("La singularidad está cerca", p.12). 

Observamos este fenómeno de aceleración tanto en el desarrollo de la computación como en el desarrollo de internet, en la robótica y en la biotecnología. Los conocimientos de biología han crecido también exponencialmente gracias a la tecnología, que permite penetrar cada vez a mayor nivel de detalle en los organismos vivos para conocer como están constituidos y como operan.

    “Dentro de veinte años habremos aumentado nuestra capacidad de computación por lo menos en un millón de veces y habremos mejorado mucho la resolución y el ancho de banda del escaneo [del cerebro]. De manera que tenemos confianza en que podamos reunir los datos suficientes y las herramientas de computación necesarias para poder hacer un modelo y simular el cerebro entero durante la década de 2020. Esto permitirá combinar los principios operativos de la inteligencia humana con las formas de procesamiento inteligente de la información que hayamos adquirido gracias a otras investigaciones sobre inteligencia artificial. También nos beneficiaremos de la inherente capacidad de las máquinas para almacenar, recuperar y compartir rápidamente cantidades masivas de información. Entonces estaremos en condiciones de poner en práctica estos potentes sistemas híbridos en plataformas de computación que superen con mucho las capacidades de la arquitectura relativamente fija que tiene el cerebro humano.” (p.221)
Estaríamos pronto a entrar en una nueva era que “será el resultado de la fusión entre el enorme conocimiento alojado en nuestros cerebros y la enormemente superior capacidad, velocidad y agilidad para compartir información de nuestra tecnología. Así, la [nueva] quinta era permitirá que nuestra civilización humano-máquina trascienda las limitaciones de las tan solo cien billones de conexiones extremadamente lentas del cerebro humano” (p.22). “A mediados del siglo XXI los humanos podrán expandir su pensamiento sin límite” (p.372). 
Ésto puede parecer ciencia ficción, pero hemos de recordar que la medicina y la biotecnología ya resuelven problemas cerebrales introduciendo microchips en el cerebro, como en casos de epilepsia y Parkinson. También se está abordando la enfermedad de Alzheimer, una vía que podría abrirnos a ampliar nuestra memoria en forma artificial con implantes cerebrales, lo cual permite creer que las proyecciones de Kurzweil no son tan fantasiosas. Y ésto lleva a preguntas profundas acerca de la identidad humana. 

Al mismo tiempo, vemos como avanzan los sistemas que permiten no solo el control mental de nuevas prótesis por el mismo cerebro sino incluso la comunicación de cerebro a cerebro. En marzo de 2014, un equipo de científicos ha logrado que dos personas se comuniquen mentalmente con un 'hola' y un 'ciao' a más de 7.000 kilómetros de distancia, entre Fracia y Thiruvananthapuram, en la India. Un gorro de última generación que lee la actividad neuronal fue el responsable de enviar las palabras "hola" y "ciao" a un sujeto receptor situado en Francia, que lo recibía mediante un dispositivo de neuroestimulación (Transcraneal Magnetic Stimulation). (Plos One, "Conscious Brain-to-Brain Communication in Humans Using Non-Invasive Technologies ", 19/08/2014) 

Más aún: investigadores de la Universidad de California han desarrollado sensores del cerebro tan pequeños como una mota de polvo, que pueden ser infiltrados en nuestra cabeza para registrar la actividad eléctrica de las neuronas. Cada conjunto de estos sensores del cerebro tendría un tamaño aproximado de 100 micrómetros (la décima parte de un milímetro). Para evitar cualquier daño o problema neuronal, los sensores irían recubiertos de un biopolímero. Se ls podría acoplar un transceptor, que se encargaría de recibir y procesar la información obtenida (Alt1040.com, 17/07/2013). De ahí a acoplar el cerebro directamente a internet, solo hay un paso. 

Según Kurzweil, la "quinta era" de la humanidad va aún más allá. En la década de 2020, podríamos contar con máquinas capaces de duplicar completamente el cerebro humano. Y, en las décadas siguientes, la unión de este tipo de avance con los de la nanotecnología y la robótica harán que el cerebro humano multiplique miles o millones de veces su capacidad e incluso que se "duplique" en clones artificiales.
    "Nanorobots más sofisticados harán de interfaces con nuestras neuronas biológicas para mejorar nuestros sentidos, proporcionando con ello realidad virtual y aumentada procedente del interior del sistema nervioso. También ayudarán a nuestra memoria y realizarán otras tareas cognitivas rutinarias. Entonces seremos cyborgs, y desde ese punto de apoyo en el interior de nuestros cerebros la parte no biológica de nuestra inteligencia expandirá sus capacidades exponencialmente. 
    En último término, los humanos basados en software se habrán expandido mucho más allá de las limitaciones humanas tal y como las conocemos hoy en día. Vivirán en la web proyectando sus cuerpos cuando quieran o lo necesiten, lo cual incluirá cuerpos virtuales en diferentes ámbitos de realidad virtual, cuerpos proyectados holográficamente, cuerpos proyectados mediantes foglets y cuerpos físicos que contengan enjambres de nanorobots y de otras formas de nanotecnología. A mediados del siglo XXI los humanos podrán expandir su pensamiento sin límite." (Kurzweil, p.372)
Aún si el hombre del futuro resulta ser un híbrido (biológico con prótesis de silicio u otros componentes), con una capacidad mental enormemente ampliada, su experiencia subjetiva seguirá siendo la de un ser humano en su totalidad. Del mismo modo que la mayoría de nuestras células son regeneradas en cuestión de semanas, el reemplazo por prótesis artificiales – y el agregado de éstas – no alterará nuestra identidad, porque la identidad no descansa en la materia sino en los patrones organizativos de todo lo que nos compone, patrones que evolucionan lentamente con el tiempo (Ya no soy hoy el que era hace veinte o cincuenta años, aunque mi identidad perdura) – y está ligada a los “receptores de identidad” de nuestras células, agregaría Bruce Lipton (cfr. "La biología de las creencias") –. A no ser que se llegue en algún momento a crear un duplicado artificial completo (clon), la identidad no variará. El duplicado sería evidentemente otro ser, que irá modificando progresivamente sus patrones. ¿Sería también un ser humano, un robot o algún nuevo tipo de entidad inteligente? He aquí una pregunta por ahora sin respuesta. Pero si fuese totalmente digital, sería una realidad virtual que se podría difícilmente considerar como ser humano. 

Referencia: Kurzweil, R.: La singularidad está cerca, Lola Books, Berlín, 2012.

miércoles, 8 de abril de 2015

¿Una nueva psicosfera?

En la segunda mitad del siglo XX, al avance en las comunicaciones y en la investigación científica hubo que sumar el papel preponderante de la tecnología informática.
    “El computador hizo una entrada triunfal en el mundo hacia 1950. Su poder de análisis sin precedente y su capacidad para difundir un abanico de datos extremadamente variados en cantidades fabulosas y a una velocidad que desafía la imaginación han hecho de él la fuerza principal que preside a la última aceleración en el desarrollo de la ciencia. Gracias a él y a otros instrumentos cada vez más eficaces para explorar el universo invisible que nos rodea, nuestros conocimientos se multiplican a una velocidad que corta el aliento.” (Toffler, "El choque del futuro", p.43).
Tal aceleración no puede sino perturbar al hombre y afectarlo psicológicamente.
    “En nuestra sociedad «saber es cambiar» -y la adquisición más y más rápida del saber, al alimentar el motor de la tecnología, conlleva la aceleración del cambio. (...) La cadencia cada vez más rápida del cambio es al mismo tiempo una fuerza psicológica. Aunque la psicología, hasta hoy, la haya casi totalmente ignorado, destruye nuestro equilibrio interior y modifica nuestra actitud ante la vida. La aceleración exterior se traduce por una aceleración interior. Para sobrevivir, para escapar de lo que hemos llamado el shock del futuro, el individuo debe hacerse infinitamente más dúctil y más competente que nunca antes.” (ibidem, pp.44 y 46).
Las comunicaciones y el vertiginoso desarrollo del conocimiento llevan a un mundo diferente del que hoy conocemos.
    “Se está formando una nueva civilización. Pero, ¿dónde encajamos nosotros en ella? Los cambios tecnológicos y las agitaciones sociales actuales, ¿no significan el fin de la amistad, el amor, el compromiso, la comunidad y la solicitud hacia los demás? Las maravillas electrónicas del mañana, ¿no harán las relaciones humanas más vacías y distantes de lo que son hoy?” (Toffler, "La tercera ola", p.353).
Estas son las preguntas con las cuales Toffler introduce sus reflexiones acerca de “la nueva psicosfera”. La era industrial tuvo su propia infosfera y, ligada a ella, su “psicosfera”. Pero, prueba que los cambios afectan a la psiquis, desde los años setenta se han creado y difundido miles de “terapias” para reintegrar la personalidad. El recuento que hizo Toffler de esta tendencia está refrendado por la experiencia y los estudios de psicólogos y psiquiatras, algunos de los cuales -como Lola Hoffman, en Chile- tienen plena conciencia de que estos fenómenos están ligados a una nueva etapa evolutiva de la humanidad:
    “Teilhard de Chardin no alcanzó a ver con sus ojos la explosión de conciencia que se produce en estos momentos, acelerada vertiginosamente debido al progreso de la técnica en el terreno de las comunicaciones. Sin proponérselo, los científicos y técnicos lograron el milagro de la simultaneidad en el planeta. Una aldea global cuyos habitantes conocen, en el momento de producirse, lo que ocurre en todas partes. La conciencia se expande así a una velocidad impredecible. (...) Desde hace unos veinte a treinta años, dice Lola Hoffmann, el número de personas que quieren ser personas, es decir, tener una vida significativa y llena de sentido positivo, aumenta en progresión geométrica. Esto se manifiesta en una vida mejor, en todos los planos.” (Sierra, "Sueños. Un camino al despertar", pp.191-192).
Pero el futuro de la humanidad, acelerado por la tecnología, podría llevar a un tipo de noosfera muy diferente de la que Teilhard, McLuhan y Toffler pudieron imaginar. (Ver próximo post.)

miércoles, 1 de abril de 2015

Comunicación y conciencia


La comunicación es un fenómeno constitutivo del ser humano. Su capacidad de pensamiento y de lenguaje solo se desarrolla gracias a sus intercambios con sus semejantes, y con ello también se desarrolla su conciencia. 

El desarrollo, en los homínidos, de facultades de fonación y de áreas cerebrales especializadas (áreas de Broca y de Wernicke) para la producción, organización y memorización de los sonidos del lenguaje sería el que permitió la emergencia de una conciencia de orden superior (Ver Figura siguiente). Estas áreas ligan entre sí las áreas auditivas, motoras y conceptuales, facilitando nuevas conexiones reeentrantes y permitiendo el desarrollo de un nuevo tipo de memoria, el que efectúa recategorizaciones a partir de los fonemas y entre ellos y las otras categorizaciones ya existentes. Es fácil ver cómo se puede haber desarrollado esta capacidad, primero en un lenguaje muy rudimentario y luego en sistemas lingüísticos con una sintaxis más compleja, permitiendo al mismo tiempo el desarrollo de la dimension semántica (Edelman, "Biología de la Conciencia", p.200). 



La puesta en relación de señales de entrada (percepción) con recuerdos de actos y recompensas pasados produce una actividad cerebral que corresponde a la llamada "conciencia primaria" o sea al despertar o reorientación de la atención hacia las señales para producir su evaluación en términos de posible peligro o beneficio. Correlaciona lo percibido con la experiencia adquirida y pondera su valor. Esta será la guía básica para un nuevo aprendizaje y un medio eficaz para corregir posibles errores de comportamiento. 


Gracias a la facultad de conservación (memoria), el aprendizaje del lenguaje y los otros aprendizajes posteriores están íntimamente relacionados con el desarrollo de la conciencia por cuanto el "decirse a sí-mismo" lo que se percibe conduce a nuevos niveles de conciencia. De la conciencia de los objetos se pasa a la conciencia de sí-mismo (y de su conocimiento), luego a la conciencia del pensamiento y finalmente a la conciencia de la conciencia, como explicó muy bien Edgar Morin ("El método - 3: La conciencia de la conciencia"). 



El gráfico tambien muestra que este desarrollo interno no ocurre en el vacío: supone la existencia de la inteligencia y de la noosfera o cultura ambas compartidas por toda la especie. 


El concepto de noosfera fue introducido por el paleontólogo francés Pierre Teilhard de Chardin hace 50 años:

    “La noosfera es una película casi imperceptible si se la compara con las magnitudes astrales. En realidad, esta delgada superficie es nada menos que la forma más progresiva bajo la que nos es dado comprender y contemplar la energía universal. En esta envoltura tenue pasa la esencia de las inmensidades que bordea: la nota superior alcanzada por la vibración de los mundos.” ("La energía humana", p.131 en la 2a edición en español)
La aparición de las redes de comunicación y la importancia creciente de la información en la cultura y la economía no son meros fenómenos casuales sino -a juicio de Teilhard- el producto de una ley evolutiva. El mismo concepto inspiró después a Marshall McLuhan ("La aldea global") y Alvin Toffler ("La tercera ola" y "El cambio del poder").