miércoles, 29 de julio de 2015

Cognición humana en red


Hace algún tiempo se empezó a considerar la web como una extensión del cerebro humano, por su estructura de interconexiones y por el parecido de las interacciones entre usuarios con las de las neuronas. Un investigador estadounidense del área, Nova Spivack, llegó a llamar a la web "metacorteza", en alusión a la corteza cerebral. 

El acceso al conocimiento se produce hoy de dos maneras en esta red: sea accediendo a un sitio web y desde éste a otros, gracias a los hiperenlaces ("links"), sea accediendo a las redes sociales, que se usan cada vez más para difundir y leer noticias (al punto que han pasado a ser fundamentales para varios medios de comunicación y que se habla ya de un mayor traslado de éstos a estas redes).

    "Facebook, Twitter, constituyen herramientas a través de las cuales un número importante de personas logra comunicarse en sincronía dando cuenta del estado local o global de la sociedad frente a un fenómeno o evento en particular. El cerebro hace lo mismo a través de la comunicación que se establece a través de una extensa red de neuronas. Logran posicionarse como sensores de la temperatura de la sociedad. Quizás un buen nombre podría ser metaurbanismo, el cerebro de la sociedad", dice Ignacio Rodríguez, investigador chileno, consultor y profesor de medios digitales (El Mercurio, 10/06/2015).

La idea de metacorteza se relaciona con el concepto de la informática de inteligencia colectiva. ¿De qué se trata? Si yo sé algo y otros también, al juntar nuestros conocimientos podemos resolver mejor un problema. Aunque puede producirse algo de desorden, existe potenciación mútua. Así, en el campo del conocimiento puede producirse algo parecido al "crowdsourcing" (abastecimiento colectivo). Es la "crowdsourced cognition" (cognición colectiva) o "crowd wisdom" (sabiduría colectiva), que supone acudir a otros, en la red, para solucionar problemas o desarrollar nuevos conocimientos. 

Ésto se expresa de dos maneras:

  1. Aprendizaje automática: es la línea seguida actualmente por servicios como Facebook y Google, que tienen departamentos de inteligencia artificial que analizan lo que fluye permanentemente en sus redes para aprender de ello ("aprendizaje de máquina"). Las herramientas de análisis de grandes datos (big data) que muchas otras empresas utilizan ya para aprender de sus clientes (o también de las redes sociales) van en la misma línea (incluyendo el aprendizaje de máquina).
  2. Computación social o solución colectiva de problemas: la Wikipedia es probablemente el modelo más antiguo de "acumulación social" del conocimiento, gracias a los aportes de todos los que "saben algo". Pero, hoy, se quiere llegar más lejos y se ha creado una organización que analiza y proyecta todo lo que se puede hacer en este campo: el Human Computation Institute, liderado por Pietro Michelucci.
  3. Human Computation Institute

Uno de los resultados más notables de la "computación social" patrocinada por este instituto ha sido el proyecto Fold.it en el que se pidió a los participantes plegar proteínas virtuales de la manera más eficiente posible, para resolver uno de los más importantes problemas pendientes en la biología molecular: cómo las proteínas se pliegan de manera rápida y eficiente. A poco andar, se descubrió la estructura terciaria de una proteína reguladora para el virus de la inmunodeficiencia pros-simio, un problema que había desconcertado a los investigadores durante décadas y que podría conducir a nuevas formas de abordar el virus del SIDA. 

También está el proyecto Zooniverse, que pide a ciudadanos científicos identificar cráteres en la Luna, ayudar a traducir registros antiguos de buques, identificar galaxias en imágenes astronómicas y encontrar planetas alrededor de otras estrellas, entre muchas otras cosas. 

Michelucci propone ahora tener un sistema abierto de ayuda a personas en dificultades, lo que ha llamado "Proyecto Houston", en recuerdo de la ayuda colectiva que se prestó a los astronautas de la Apolo 13, para traerlos de vuelta. El plan consiste en utilizar la técnica de análisis del discurso y la comprensión del lenguaje natural para detectar el estrés en ciertas comunicaciones y ofrecer ayuda. Ésta sería proporcionada por personalidades virtuales creadas a partir de individuos con diferentes niveles de experiencia, con el apoyo de técnicas de inteligencia artificial. "Proyecto Houston podría proporcionar una personalidad consistente amable y paciente, incluso si la multitud cambia por completo con el paso del tiempo", dice. (MIT Technology Review, 4/06/2015). 

Michelucci también sugiere que se podría copiar el modelo de Duolingo, la app que enseña otros idiomas, y aplicarlo a otras áreas del conocimiento y al desarrollo de nuevas habilidades. Así, por ejemplo, los sistemas de reconocimiento de imágenes son aún muy malos para analizar placas de rayos X y la revisión de las mismas por expertos humanos, online, podría ayudar a desarrollar mejores sistemas de análisis automático. Muchas otras cosas son posibles, tanto en el campo de la salud como en otros, y Michelucci sugiere la creación de centros nacionales dedicados al desarrollo de lo que llama "computación humana" (pero que prefiero llamar "computación social" si de abreviar "desarrollo social del conocimiento" se trata). Tal como se habla de "ciencia de datos" como una nueva disciplina (que une informática y estadística para el análisis de big data), se trata en cierto modo de una nueva disciplina en que han de unirse expertos en informática, ciencias cognitivas, comportamiento económico, matemática de la complejidad e interfaz hombre-máquina. 


Referencia: Michelucci, P. (ed.) (2013): Handbook of human computation, Springer (eLibro disponible, con posibilidad de comprar capítulos específicos).

miércoles, 22 de julio de 2015

Cambios en el acceso al conocimiento

Los "big data" son solo un primer indicio de un cambio histórico radical en el modo de adquirir nuevos conocimientos.


Todos nuestros dispositivos conectados están alimentando un gigantesco crecimiento de datos, algo completamente nuevo en la historia. En los últimos 3 años, hemos generado más datos que en los anteriores 199.997 años de la historia humana. Ésto significa que la forma en que pensamos acerca de los datos y de la tecnología tiene que cambiar en el nivel más fundamental. No es sólo una cuestión de escala: los tipos de datos y la forma en que pueden afectar a la vida humana y el mundo son diferentes en su mismo núcleo. 

Los enfoques tradicionales ya no van a funcionar con estas grandes cantidades de datos; no van a producir resultados relevantes en un mundo donde la información en tiempo real provendrá de dispositivos conectados presentes en todo, desde los latidos del corazón humano a los datos interestelares fluyendo constantemente y a un ritmo creciente. 

Ahora todo el mundo tiene acceso a la información, y la tecnología y las herramientas necesarias para extraer valor de esta explosión de datos están en desarrollo y se promete que estarán progresivamente a disposición de una mayor cantidad de gente. 

No se trata solamente de los llamados "big data", acumulados por las redes sociales para conocer mejor a sus usuarios y programar la publicidad, lo que también realizan las empresas para tomar mejores decisiones tanto en el plano del mercadeo como en la gestión de su producción. Los medios de comunicación se preguntan cómo utilizar mejor la cantidad de datos de todo tipo que entregan los gobiernos y que encuentran en la misma WWW. Por ahora, hacerlo no es fácil. Se requiere dominar la llamada nueva "ciencia de datos", y nuevas herramientas de análisis, desde el lenguaje R hasta las plataformas Hadoop o Spark. El nuevo rol del ingeniero o científico de datos está evolucionando y tanto las habilidades como los conocimientos requeridos están fluctuando junto con las tecnologías como el aprendizaje de máquina y la computación distribuida. Cada nueva función descubierta tiene su propia exigencia de competencias y no hay aún "modelo estándar" (si es que llega a haberlo alguna vez). 

Lo que de todos modos se desprende ya de la transformación en marcha es, por una parte, su necesidad y, por otra, la necesidad de reemplazar las matemáticas y las estadísticas tradicionales por la idea de matemáticas borrosas (probabilidad) y conjuntos difusos. Cambiar el enfoque y la metodología es indispensable debido a la masividad de los datos que ya empezó a generar la "internet de las cosas". Ya no es posible conocer realmente el mundo de hoy sin analizar enormes conjuntos de datos. Sistemas avanzados de análisis, capaces de operar sin hipótesis previas y de generar pronósticos o recomendaciones serán indispensables para que tales datos sean realmente útiles, tanto en empresas de todo tamaño como -especialmente- en los gobiernos. La única vía posible que se visualiza por ahora es la del "aprendizaje de máquina", una forma de inteligencia artificial que permite a los computadores más poderosos extraer de estas masas de datos conocimientos aprovechables. 

Por ahora se requieren para ello máquinas poderosas (supercomputadores) o conjuntos de computadores (clusters) que se repartan las tareas. Facebook, Google, Yahoo, Twitter y otros utilizan estos equipos e invierten en desarrollos de inteligencia artificial para utilizar la información que les llega a raudales. Netflix está cambiando el panorama de la televisión no solo por su modelo de distribución sino también por su toma de deciciones en cuanto a su programación y sus ofertas personalizadas, basadas en el análisis de datos, en que ha pasado de un análisis tradicional a uno basado en los recursos más modernos del momento que se ilustran en el siguiente cuadro (de una presentación de Blake Irvine recogida en DZone):

Netflix analysis


Y múltiples empresas ofrecen este tipo de servicio en su nube: IBM, Microsoft, Amazon... Pero hemos de recordar la Ley de Moore, que ha asertado en asegurar que el poder de los computadores se duplica cada dos años, así que hay esperanza para el mejoramiento tanto de las aplicaciones como de los equipos para los investigadores y, algún día, para todos. El conocido software de análisis estadístico de SAS ya se hizo cargo de las nuevas tendencias y anunció su "Factory Miner", capaz de "automatizar el proceso de construcción de modelos predictivos" a partir de cualquier conjunto de datos en formato de tabla y con algoritmos de aprendizaje de máquina.


Moore aplicada



Todas las grandes empresas se hacen preguntas hoy acerca de este nuevo panorama, si no han adoptado ya la nueva tendencia. pronto no les será posible defender sus negocios sin este tipo de herramienta. Pero, por ahora, se encuentran con un verdadero caos de recursos, incluso en el marco de la plataforma más genérica y comunmente utilizada que es Hadoop, como se muestra en el siguiente gráfico (preparado por MapR):


Hadoop market


Sin duda, el software seguirá evolucionando y esperemos que sea en una línea de mayor integración (como ha ocurrido hace años con la ofimática) y con alternativas más compactas que sean útiles para las PYMES, los investigadores-académicos y cada personas deseosa de explorar el nuevo mundo de los datos (y no solo para los más poderosos). Avanzar en estas nuevas tecnologías y ponerlas a disposición de todos es un real imperativo social.

    "Con el tiempo, vamos a mirar atrás y ver este año, 2015, como el año en que hicimos un cambio fundamental en nuestra forma de pensar, de descubrir simplemente ideas a aplicarlas a gran escala y en formas que producirán ideas que no podemos imaginar en este momento." nos dice Joel S. Horwitz, Director de Analytics de IBM en la revista de tecnología del MIT. Llevará a la "economía de la perspicacia" (insight economy).

La ciencia de datos, sin embargo aún debe evolucionar. Utilizar ciegamente el aprendizaje de máquina para el análisis de Big Data y, con ello, tomar decisiones basadas en predicciones artificiales como se está haciendo ahora podría ser muy riesgoso. Las empresas que ofrecen estos sistemas o los servicios asociados nos piden que confiemos ciegamente en los algoritmos creados por sus ingenieros pero no nos dan, hoy, ninguna prueba de que son realmente confiables y no nos permiten, lamentablemente, comprender los resultados que entregan. 

IBM ha intentando paliar este problema con "Watson Paths", que ofrece una visualización del árbol de decisión seguido por este supercomputador. Pero el experto en IA, Danny Hillis, comenta en el mismo artículo que no es suficiente (requiere aún una interpretación) y que la única solución satisfactoria sería producir un relato ("story telling") describiendo cómo se llega a la conclusión ofrecida. Exponer el razonamiento facilita la comprensión, la aceptación (o refutación) y el aprendizaje humano. ¿Qué pasaría si un gobierno tomase decisiones de política social o en las "ciudades inteligentes" basado en algoritmos erróneos? ¡Peor aún si un médico decide un tratamiento basado en un diagnóstico erróneo, por confiar en un programa de IA! Steve Lohr (The New York Times, 7/04/2015) indica un camino que la "ciencia de datos" debe recorrer a toda costa antes de ser realmente confiable: "Estas preguntas están estimulando una rama de estudio académico conocida como rendición de cuentas algorítmica (algorithmic accountability)". 
(Más comentarios del artículo de Lohr en ComputerWorld, 19/06/2015)


Fuentes: MIT Technology Reviews, 15/06/2015.
DZone, 16/06/2015.
Computerworld, 18/06/2015.
ComputerWorld, 19/06/2015.

Nota: El post de la semana pasado ha sido revisado.

miércoles, 15 de julio de 2015

Gestión del conocimiento - Gestión de competencias


¿Qué es la gestión del conocimiento?

Se trata de un sistema administrativo que crea las condiciones necesarias para registrar, combinar, aplicar y proteger todo el conocimiento que existe en una organización, para sacar mejor provecho de los recursos disponibles en situaciones que, hoy, son fácilmente cambiantes. 


Desarrolladores del concepto y primeros sistemas informáticos destinados a tal gestión han sido los franceses Michel Authier y Pierre Lévy, en la década de los 90. Crearon una herramienta de representación y gestión que llamaron los "árboles de conocimientos" e incluyen un sistema gráfico (imagen abajo), los que han sido usados con éxito en múltiples ciudades del mundo (asociando empresas con departamentos municipales de asistencia laboral, o incentivando a los jóvenes a aprender en vez de caer en la drogadicción), en escuelas y universidades, en grandes empresas, en ONGs y hasta en tribus del Amazonas.

Este concepto inicial equivale a lo que se tiende a llamar más bien "gestión de competencias", lo cual es mucho más preciso y toma en cuenta que la "gestión del conocimiento", en una empresa, es hoy mucho más amplia que la gestión óptima de los conocimientos acumulados por el personal. El avance, especialmente, de las comunicaciones digitales nos ha enseñado que la empresa puede acumular muchos otros conocimientos, como los que se obtienen de los clientes o usuarios (los "big data", para las empresas medianas o grandes), que la novel "ciencia de datos" enseña a analizar y aprovechar para una mejor gestión.
En consecuencia, debemos dividir al menos en dos la "gestión del conocimiento": la gestión de competencias y la gestión de "grandes datos" (una tercera división podría ser el conocimiento acerca de las operaciones de la empresa y sus fundamentos).

La gestión de competencias

    La imagen, que corresponde a una presentación de la aplicación creada por  Authier y Lévy, muestra un árbol con un largo tronco con múltiples capas o "tajadas", lo cual indica que hay mucha gente que comparte los mismos conocimientos en los -múltiples- niveles inferiores (pueden sur los estudios pre-universitarios). Luego se abren dos ramas principales y cada una se subdivide hasta llegar a hojas que distinguen casos únicos o muy poco numerosos. Podemos estar frente a una industria de alta tecnología, con una rama administrativa y una rama productiva, la productiva teniendo el mayor número de ramificaciones.
    Al pulsar sobre una "tajada" del tronco, de una rama o sobre una hoja, se obtiene inmediatamente la identificación del saber o competencia y una reseña con el número de personas que lo poseen y eventualmente la forma de contactarlas. Mientras todo el mundo puede acceder en línea al árbol y a éstos datos, la información individualizadora (y el emblema completo) de cada persona es reservada y sólo tienen acceso a ella su poseedor y -eventualmente- algunos directivos si se trata de una comunidad-empresa.
    Las ramas del árbol se forman a partir de la cantidad de personas que cuentan con los mismos saberes en su emblema.
Estos árboles no son estáticos: gracias al uso de la informática, se modifican cada vez que una persona -miembro de la organización- modifica su emblema. Así se cuenta siempre con una visión de la evolución histórica y del estado actual del árbol institucional. (Un sistema de este tipo estuvo operando en mi sitio web de "Investigadores e Investigaciones en Comunicación", entre los años 2007 y 2014, y lo he ofrecido en este período como aplicación independiente para servidores Linux; gráfico siguiente). 
    A la izquierda aparece la barra de los idiomas (vertical), mientras a su derecha aparecen tres columnas, que corresponden a los tres grandes niveles de enseñanza superior: formación técnica (CFT), profesional (IP) y universitaria. Las cuatros barras horizontales inferiores que aparecen debajo de estas tres columnas corresponden a la Enseñanza Básica y Media (completa e incompleta), mientras el pequeño rectángulo que está más arriba, en la Enseñanza Universitaria, representa un post-doctorado. De este modo, de abajo hacia arriba, se aprecia con facilidad el nivel de conocimiento. Los colores corresponden a distintas áreas de conocimiento (el código se explica en uncuadro lateral). Las dimensiones corresponden al número de poseedores. Al `pinchar´ en una barra, se obtienen los datos de la competencia y de todos sus poseedores. 
Un elemento fundamental del árbol (y de la gestión) de conocimientos es considerar que lo que sabe una persona es mucho más que lo que aparece formalmente en su curriculum vitae. Yo, por ejemplo, no pongo en mi CV que sé realizar instalaciones eléctricas y que hubo una época en que armaba radios a transistores. Sin embargo, es parte de lo que soy, porque es parte de lo que sé, aunque parte de este saber es obsoleto. Pero dicho saber no deja de ser parte de mí (está grabado en las neuronas de mi cerebro) y puede, en cualquier momento, servir de base para otra cosa (De hecho, me ha servido para entender la arquitectura y la forma de operar de los computadores). Todo el saber -explicitado- de una persona forma lo que han llamado un "emblema" y la suma de los emblemas, en una organización, forma el "árbol de conocimientos" de esta organización. 

Todo el sistema ha sido llevado a modelos informáticos y existen aplicaciones que permiten explotarlos a cabalidad. Sus principales componentes son cuatro bases de datos que corresponden a "bancos": el de las competencias (identificación de un saber, con la prueba que la valida, por ejemplo un título universitario o el reconocimiento por pares), el de los calificadores (personas y organismos que están capacitados para certificar una competencia), el de los emblemas (donde queda registrado y graficado cada miembro de la comunidad) y el de los perfiles (conjunto de competencias que un empleador quiere encontrar en una persona o grupo de personas). Lo que relaciona estos bancos o bases de datos es el árbol comunitario, permitiendo las consultas y dando una visión de conjunto.
    Grandes empresas como IBM, France Telecom, RATP (transporte público de París), Elf, Dassault Aviation, PriceWaterhouse Coopers y muchas otras, ya utilizan diversos software de gestión de competencias. También lo hacen las administraciones de diversas ciudades en el mundo -como Río de Janeiro-, principalmente para atender problemas sociales. 
A diferencia del sistema educacional tradicional, que margina numerosas personas por sus fracasos escolares o su especialización, los árboles permiten a todos registrar los saberes adquiridos, cualesquiera sean. La valoración de los mismos se realiza en forma independiente, según la cantidad de habientes, la oferta de formación y la demanda existente en el mercado del empleo. Por lo tanto, nadie queda excluído y la movilidad queda abierta para todos ya que la oferta de capacitación no se limita a las instituciones educativas. Ésto puede ser de especial importancia para los países en desarrollo, donde los sistemas formales no dan abasto para satisfacer la demanda de formación. 

La visualización -gráfica- de los datos individuales y comunitarios también ha probado ya ser una eficaz herramienta de incentivo para la capacitación. Por este medio, jóvenes marginados han dejado la atracción de la delincuencia para preocuparse más de su propia formación, tanto para tener un emblema "más lindo" como para mejorar el árbol de conocimientos de su barrio (en la administración comunal orientada a solucionar problemas sociales). 

En una "sociedad del conocimiento", este tipo de herramienta es especialmente relevante ya que facilita el compartir el saber. Implantado en una Universidad, permitiría que una autoridad, para organizar un simposio, un grupo de trabajo o una investigación acerca de un determinado tema, consulte la "base de conocimientos" para saber quiénes podrían, internamente, estar en las mejores condiciones para participar en el proyecto, por el hecho de haber estado investigando, publicando o, simplemente, estudiando o analizando -aún por mera afición- dicho tema. Se podría así descubrir, con alguna sorpresa, que algunos ingenieros han estudiado temas psicológicos (el "desarrollo organizacional" es de este tipo de interdisciplina), que algunos comunicólogos son también programadores o analistas de sistemas, que matemáticos han aprendido de ciclos naturales propios de la agronomía, etc, etc. La puesta en evidencia de estas "intersecciones" (en términos de teoría de conjuntos) es cada vez más importante en el mundo universitario, tanto para el desarrollo de la producción intelectual de las instituciones como para abrir la mente de las nuevas generaciones. El acceso inmediato que proporciona Internet a un conocimiento actualizado lleva a que los "expertos" se hacen cada vez más fuera de las tradicionales "carreras" o profesiones –e incluso fuera de las instituciones de educación superior–, y se "deshacen" en poco tiempo si no se mantienen comunicados con sus pares e incentivados por su institución.


Referencias
- Authier, M & Lévy, P. (1992): Les arbres de connaissances, La Découverte, Paris,180 p. (reed.1998)
- Colle, R. (2004): "La representación individual y colectiva del conocimiento adquirido", Razón y Palabra, n°38, abril-mayo 2004.
- Colle, R. (2007): GestCon, sistema de gestión de competencias, Software para plataforma Linux-Php-MySql.

miércoles, 8 de julio de 2015

Estrategias cognitivas


Una estrategia cognitiva es el método que utilizamos cuando estudiamos. 
Nuestras estrategias cognitivas forman una suerte de base de datos con modelos de pensamiento y aprendizaje que podemos aplicar a situaciones de aprendizaje específicas. Nos permiten organizar un aprendizaje de modo que podamos interiorizar y recordar más fácilmente. 

Harold Stolovitch y Erica Keeps nos dicen que hay seis estrategias cognitivas:

  1. Clustering: Diferentes maneras de organizar la información de modo que facilitan la percepción, la comprensión y el recuerdo. Cada vez que agrupe conocimiento declarativo o procedimental en agrupaciones lógicas, fáciles de entender, Ud emplea una estrategia cognitiva éxitosa de "clustering".
  2. Espacial: Visualización de información que reúne un gran número de elementos en una forma fácil de comprender, retener o recordar. Representar gráficamente la información que hay que aprender a menudo ayuda a los estudiantes a ver cómo las cosas se relacionan. Las formas más comunes de organización espacial son los gráficos estadísticos y los diagramas de flujo. Pero estos autores parecen olvidar también los "mapas mentales", especialmente útiles para explicitar relaciones. (Ver "Mapas conceptuales" en mi blog de Lenguaje Visual).
  3. Organizadores avanzados: Paquetes de información introductorios que establecen una expectativa o construyen una visión. Ayudan al alumno a figurarse lo que está por venir y como se relaciona con el conocimiento previo o el contenido anterior. Un organizador avanzado es por lo general de una breve introducción hecha antes de entrar en un nuevo tema o en un conjunto de habilidades que da a los aprendices un mano a mano en cuanto a lo que se viene. Casi siempre es corto. La mayoría de las veces vincula el conocimiento previo con el nuevo material y marca comparaciones y vínculos lógicos. También puede delinear el nuevo contenido y preparar al alumno para acercarse mentalmente mejor a éste.
  4. Comparaciones visuales ricas: Las analogías, metáforas y comparaciones literales que construyen puentes entre lo que el alumno ya sabe y los nuevos aprendizajes. A lo largo de nuestra vida nos han enseñado con ricas comparaciones visuales. Utilizamos metáforas en nuestra habla cotidiana (p.ej. "¡Es un zorro!") y nuestras interfaces de ordenador se basan en metáforas, como el "escritorio" en nuestra pantalla, junto con los menús y los iconos. La fuerza de esta estrategia cognitiva se encuentra en el puente (conexión) que se establece entre lo que el alumno ya sabe - lo familiar - y lo que todavía hay que aprender.
  5. Repetición: Actividades que permiten a los estudiantes ensayar con los contenidos que han encontrado y practicarlos de manera organizada hasta que se les "pega" en el mente. La repetición y el ensayo en sus diversas formas pueden ser inmensamente eficaces, especialmente a largo plazo. La memorización, la práctica, el ensayo, y las pruebas han demostrado su poder para el aprendizaje. Las claves para todos éstos son la organización, el significado y la aplicación sistemática.
  6. Ayuda-memorias: Son las agrupaciones de letras, palabras o imágenes fáciles de recordar, que ayudan a almacenar y recuperar material más complejo. Esta estrategia cognitiva, también conocida como mnemotecnia, es uno de los favoritos para recordar. Las más comunes son las siglas, los acrósticos, las rimas y las palabras clave.

Fuente: Stolovitch, H.D. & Keeps, E.J. (2014): How to Build Learning Faster, Better, Cheaper, ISPI.org. Extracto de: Telling Ain't Training, Association for Talent Development (ATD), 2011.

miércoles, 1 de julio de 2015

Catalizadores de conocimiento

El profesor Clay Shirky ha acuñado términos como "excedente cognitivo" para explicar que tenemos capacidad mental para hacer mucho más con nuestra inteligencia a nivel colectivo pero, con demasiada frecuencia, las barreras sociales nos inhiben. Estamos demasiado ocupados con un diluvio de ruido de radio, vallas publicitarias y fuentes de noticias para reflexionar y examinar cuestiones más importantes.

Tendemos a ser consumidores pasivos de información, aunque cada vez más compartimos también información en las redes sociales. ¿Pero le agregamos ahí algún valor? Se necesita tiempo y esfuerzo para filtrar nuestra información y darle sentido. Ésto es lo que se conoce actualmente como "curación de contenidos", pero ser "curador de contenidos" es también ser "catalizador de conocimiento" y ésto significa utilizar nuestro propio conocimiento, pero en relación con los demás, para entender mejor los temas complejos y crear nuevas formas de abordarlos.

La experiencia se está erosionado en muchos campos y la innovación es cada vez mayor en todas las disciplinas. Ésto nos obliga cada vez más no solo a aprender algo de estas disciplinas sino también a leer publicaciones especializadas actualizadas y conversar con expertos, en campos que a veces no parecen tan próximos a nuestra especialidad profesional. Es especialmente el caso en el mundo de las comunicaciones, donde -por ejemplo- los periodistas deben saber cada vez más de informática e incluso de inteligencia artificial (que lleva a su vez a explorar temas de neurología ligados a la cognición, como los que abordamos ocasionalmente en este blog).

"Las personas que no logran aprender continuamente serán reemplazados por las máquinas. Pero no es necesario que cada uno de nosotros haga ésto por su cuenta." dice Harold Jarche, un entrenador de las Fuerzas Armadas Canadienses y presidente del think-tank Internet Time Alliance. "Los buenos catalizadores de conocimiento tienen diversas redes de conocimiento entre los que buscar el conocimiento. Estas redes son parte de sus filtros. Los catalizadores también comparten, agregando valor a través de procesos como la curación. Además, y lo más importante, son catalizadores al crear y hacer algo nuevo", agrega.



Fuente: Jarche, H.: Knowledge catalysts, Jarche.com, 11/05/2015