jueves, 22 de diciembre de 2016

Para enseñar comunicación hoy

Enseñar comunicación hoy es sin duda más complejo que hace veinte o más años, aunque los fundamentos puedan parecer los mismos.
Debemos asegurarnos de que los estudiantes conozcan:
1. el contexto,
2. la esencia de los medios de comunicación,
3. el sujeto.

El contexto
El contexto es el mundo de las tecnologías digitales y especialmente de las redes, que son distribuidas (es decir sin núcleo central, aunque algunas plataformas -como Google y Facebook- las dominan). Y tanto los medios como nosotros también estamos bajo la influencia de varios actores socio-económicos y políticos que deben ser identificados. Como docentes, somos actores y responsables de los nuevos actores. Y es probable que debamos luchar para defender nuestros intereses contra los intereses de empresas cada vez más poderosas y contra sus algoritmos que pretenden “ayudarnos” quitándonos la iniciativa. Y también contra quienes quieren supeditar la conciencia de la humanidad al poder de nuevos supercomputadores, que pretenderán dotados de conciencia.
Luego hay que tomar en cuenta que los cambios son inevitables, como lo demuestra la historia, pero se suceden mucho más rápido que antes y es necesario preparar para ello, lo cual implica desarrollar la creatividad y situarla en un marco racional. 

La esencia de los medios
Para abordar la esencia de los medios partamos por la esencia del proceso de comunicación y recordemos que su centro es el sujeto mientras los medios son sus herramientas. También recordemos los fines esenciales de la comunicación: ayudar a que el ser humano se desarrolle lo mejor posible, para su propio bien y el bien de la sociedad. Por lo tanto, la comunicación debe facilitar prioritariamente la adquisión de conocimientos y el desarrollo de las relaciones humanas.
En cuanto a los medios, la digitalización ha puesto en evidencia que todos pueden ser reducidos a las dos formas que nos han sido provistas por la naturaleza: la visual y la auditiva, que se traducen en medios audiovisuales (efímeros) y verbo-icónicos (estables). Que hoy estemos viendo canales de televisión, páginas web o diarios y libros tanto impresos como electrónicos es solo un accidente histórico: muchas otras formas son posibles y algunas se están abriendo espacio.

El sujeto
Hay que saber descubrir lo que le interesa, la forma en que usa los medios y no olvidar que está inserto en redes sociales estructuradas (la familia, los cercanos y los lejanos). Esto implica conocimientos tanto de psicología como de sociología y de métodos de investigación.
Y para ofrecerle adecuadamente los contenidos o experiencias que le puedan interesar es importante considerar también la experiencia de uso, es decir saber de diseño de interfaces y rastrear la experiencia de los usuarios de nuevos medios (como las molestias de muchos usuarios con los lentes de realidad virtual, por ejemplo).

Solo con todos estos conocimientos podemos pensar que alguien estará preparado para pasar a producir y, por lo tanto, habrá que pensar en los conocimientos necesarios, los cuales habrán de partir no solo por el adecuado manejo del idioma (escrito, oral y visual) sino también por la adecuación a las formas de difusión (elementos de informática, aplicaciones digitales, diseño de interfaces, etc.).

miércoles, 7 de diciembre de 2016

Artefactos y memoria


En los alumnos de las universidades ya es común ver a muchos estudiantes con sus ordenadores portátiles tomando notas. Comparados con los cuadernos, tienen varias ventajas: para muchos es más rápido tomar notas con un teclado, y se pueden consultar otras fuentes (si hay WiFi). Pero así, no solo descuidamos la caligrafía: la capacidad de aprendizaje y memoria se ve lamentablemente disminuida, según indican varios estudios al respecto, como los de Karin James y de Pam Mueller. 

Karin James hizo que niños pequeños reprodujeran una letra o una forma de tres maneras: trazando la forma en un papel que tenía la forma delineada por puntos, trazarla en una hoja en blanco o escribirla en una computadora. Luego, los conectó a un scanner cerebral y les mostró la imagen de nuevo. Cuando un niño trazaba la imagen a mano, exhibía un incremento en la actividad cerebral en tres áreas que se activan en los adultos cuando leen y escriben. Pero aquellos niños que escribieron la letra usando el modelo de puntos o en la computadora no mostraban tal actividad. (Hipertextual, 28/07/2015). 

Otro estudio,hecho por Mueller y Oppenheimer, demostró que cuando se escribe a mano, el cerebro es capaz de elaborar y expresar más ideas, pues se demostró que hay una correlación entre la escritura y la imaginación. Este estudio incluyó una muestra en la que sus participantes fueron evaluados una semana después utilizando las notas hechas durante la clase (en computadora y a mano) y el desempeño de aquellos que estudiaron con sus apuntes hechos con lápiz y papel fue superior a aquellos que lo hicieron con las notas hechas en sus ordenadores. Tomar notas a mano y en papel requiere una forma de procesamiento cognitivo que estimula el aprendizaje. Usando el teclado, la mente no "digiere" nada y se olvida pronto. (ibidem

En lo que se refiere a recordar conceptos después de haber estado tomando notas, el bolígrafo aventaja al teclado según la investigadora Pam Mueller, de la Universidad de Princeton, que realizó tres estudios para comprobar cómo afecta a la memoria el método utilizado para tomar notas. Al parecer son sobre todo los iconos y otras informaciones de la pantalla que producen la diferencia, por la distracción que generan. (Microsiervos, 15/04/2015). 

El portátil (o el PC de casa) tiene sin embargo otras ventajas: las de poder acumular más información y relacionarla (por ejemplo con Evernote o con el sistema de registro de referencias y citas "Citable", una extensión de Chrome). Y también permite usar aplicaciones de visualización de datos y mapas mentales (Vea mi post anterior aquí sobre "Estrategias cognitivas" y el de "Mapas conceptuales" en mi blog de Lenguaje Visual). 

Como lo he mencionado otras veces, la imagen es una poderosa ayuda para la memoria y, de este modo, un importante complemento para el conocimiento, más aún cuando -como con los móviles- son compartidas, un fenómeno de comunicación casi desconocido antes de los teléfonos con cámara. (Vea más detalles en mi libro "La revolución de la fonofotografía"). 

miércoles, 30 de noviembre de 2016

Los sesgos en los análisis de contenido

Recientemente se ha publicado un informe acerca de las "líneas editoriales" de la prensa chilena en torno al tema de las AFP (Administradoras de Fondos de Pensiones). Recogió lo que se publicó en 8 medios nacionales en los meses de julio, agosto y septiembre 2016. Pretendía sintetizar la postura de estos medios así como de los "agentes" que aparecieron, para lo cual realizaron en una primera etapa un "análisis de big data", basado en la detección de 3.806 noticias y orientado a detectar 3 "posturas" ("Pro sistema de pensiones", "Pro sistema con modificaciones" y "En contra del actual sistema") y 3 subtemas ("Discusión política pública", "Controversia José Piñera" y "Manifestaciones movimiento no más AFP"). [Me reservaré los datos de los autores.]

Podemos considerar objetivos los resultados estadísticos acerca de la frecuencia de las diversas posturas y los sub-temas, aunque podríamos preguntarnos si no hubo otros "sub-temas". No se aclara cuándo ni cómo se eligieron estos tres. ¿Fueron predefinidos por los investigadores o definidos a partir del análisis de big data?

Pero debemos empezar a hacernos preguntas cuando llegamos a las conclusiones. Así, se afirma, por ejemplo, que "Los agentes pro sistema de pensiones, son personas relacionadas con las grandes empresas multinacionales, están vinculados con la dictadura de Pinochet, usualmente economistas". El informe que hemos recibido no entrega la justificación de esta afirmación, pero es posible que se explicite en una versión más extensa (no pública). (¡Han pasado 26 años desde la vuelta a la democracia! ¿Aún es necesario vincular a la dictadura profesionales que intervienen hoy?)

Otras conclusiones fueron las siguientes:
  • "La distribución de las agentes seleccionados en el sistema de prensa, no deja duda que éste prefiere, en la construcción de la información, destacar el rol de los que son favorables al sistema de AFP. Si juntamos las dos posturas pro sistema, la cobertura es de 1.009 alusiones, contra 127 alusiones para la postura que está en contra."
  • "Cualquiera que sea el acontecimiento cubierto en los tres meses del estudio, se mantiene el protagonismo dominante de los agentes pro sistema AFP, y una baja cobertura de los agentes antisistema, en todos y en cada uno de los medios analizados."
Podríamos decir que "las cifras no mienten", pero no justifican que se asegure que la prensa "prefiere destacar el rol de los que son favorables al sistema de AFP". Es cierto, sin duda, que los medios de prensa tienen cada uno su línea editorial y pueden elegir tanto sus fuentes como los hechos que relatan de acuerdo a ésta. Pero no pueden generar los hechos y están sujetos a la aparición de éstos. Por lo tanto, antes de redactar conclusiones como las aquí señaladas, un análisis de contenido que pretenda ser realista debería contar con un levantamiento independiente de la información. Ésto, obviamente, puede ser difícil sino imposible al margen de los propios medios de comunicación. ¿Hubo o no hubo - objetivamente - más hechos "generadores de noticias" favorables que desfavorables? Lo más probable es que haya habido una disparidad y es posible (sino probable) que la diferencia no dependa de la "preferencia" del medio de prensa.
¿Que hará un buen analista? Hacer una lista de todos los hechos reseñados por todos los medios a los cuales pueda tener acceso. Luego verificará si algunos aparecen en alguno de los medios que investiga y no en otros, dará cuenta de tal situación y basará sus conclusiones en dicha comparación. Y, para tratar de ser objetivo en el registro de posturas valóricas, se asegurará de recurrir a varios "jueces", analizando luego el grado de concordancia entre éstos (y señalándolo en su informe, como garantía de objetividad).

No olvidemos que el trabajo de análisis de datos, cualquiera sea el método utilizado, hereda múltiples sesgos:
  1. Elección de fuentes: nadie puede acceder a todas las fuentes y todos tenemos que realizar algunas elecciones antes de empezar a recopilar datos, lo cual ocurre en cualquier ámbito.
  2. En el caso de la prensa, su misma función se basa en un sesgo: la cobertura de los hechos se orienta hacia la novedad y el dramatismo. Los medios son modeladores de lo que (según creen) interesa al público. En consecuencia, lo inhabitual recibe una atención desproporcionada (Kahneman, p.185).
  3. Las fuentes mismas hacen luego su propia selección de entre los datos que han recopilado o difundido. (Aquí interviene la "línea editorial".)
  4. Para las fuentes que consideramos (o consideran quienes aplicarán las técnicas de análisis), elegimos informaciones y descartamos otras, de acuerdo a nuestros intereses, criterios, conocimientos previos y creencias, traducidos en palabras clave, categorías u otros indicadores. Toda persona tiene además tendencia a dejarse guiar más por sus emociones que por la razón (es la llamada "heurística del afecto"), algo exacerbado por los "likes" en las redes sociales (Kahneman, pp.185-187). Ni los mejores científicos están exentos de ello, siempre influidos por su concepción del mundo, que la expliciten o no (de ahí una rama de la ciencia que se llama “investigación de fundamentos”).
  5. Finalmente, realizamos el análisis e interpretamos los resultados de acuerdo a este mismo marco mental.

Referencias:
Colle, R. (2011): El análisis de contenido de las comunicaciones, PDF Tomo 1 Fundamentos - Tomo 2 Técnicas de análisis.
Kahneman, D. (2012): Pensar rápido, pensar despacio, Barcelona, Debate, Random House Mondadori.
Krippendorf, K. (1980): Content analysis, New Jersey, Sage.
López–Cantos, F. (2015): "La investigación en comunicación con metodología BigData", Revista Latina de Comunicación Social, 2015, pp. 878 a 890.

miércoles, 23 de noviembre de 2016

Una experiencia de creatividad con la técnica "PO" de De Bono

En el marco del III Congreso de la Asociación Chilena de Investigadores en Comunicación, se realizó un taller de creatividad grupal que recurrió a la técnica "PO" del psicólogo De Bono.

¿De que se trata?
Conocemos el brainstorming para tratar grupalmente algún problema. Este tiene un problema: se agota rápidamente, porque las ideas se “atraen” unas a otras y tienden a concentrarse. Para escapar de esta “concentración” natural, Edward De Bono propuso utilizar un método de generación libre de palabras o conceptos, formando algunas listas, y luego unirlos con una preposición neutra que propuso llamar "PO", que no es ni "y", ni "o", ni "sí" ni "no". Una expresión podría ser, por ejemplo, "reloj PO zapato", lo cual puede hacer pensar en zapatos que registren las horas de uso (algo que hoy se podría considerar en zapatillas deportivas).

El taller
Los objetivos del taller eran de informar brevemente acerca de este método creativo y capacitar en el uso de la técnica de generación y asociación de ideas con la preposición “PO”. No se pretendía en absoluto generar algún proyecto realmente útil ya que el propio De Bono ha reconocido que ello ocurre solemente en un 2% de los talleres.
Luego de una breve introducción, se utilizaron herramientas de Google (formularios de encuestas, planillas y la extensión MindMup para crear mapa de conceptos) para la participación y el análisis de resultados.
La primera etapa consistió en solicitar a los asistentes que enviasen la primera palabra que les viniese a la mente luego de leer una "palabra generadora" preelegida (un caso inicial, sin palabra generadora, fue seguiio de cinco palabras generadoras: vacaciones, cliente, círculo, computador y regalo). 
Los 60 términos respondidos se mostraron en la planilla generada automáticamente, para luego pasar a la segunda etapa, en que se pidió dos veces que eligieran una palabra no propia en una de las columnas, escribieran al lado la preposión "PO" y luego una segunda palabra no propia elegida en otra columna.
Participaron activamente diez asistentes, generando así pares de propuestas de términos asociados con la preposición "PO":
vacaciones po círculo         lentes po regalo
figura po producto         rueda po amigo
viaje po perro                 amigo po figura
geometría po procesamiento cerro po tecnológico
gato po feliz                 lago po tarro
mar po trabajo                 nube po rápido
música po alegria         creatividad po producto
perro po cumpleaños         educación po tecnológico
gato po música                 alegría po creatividad
computador po compra
Finalmente se graficaron estos pares en un mapa, uniendo todos los pares que podían ser unidos (líneas negras en el gráfico que sigue), para luego explorar las otras posibles conexiones (líneas punteadas rojas) que, aunque lógicas, podían ayudar a ligar entre sí diferentes conjuntos de tipo "po" y así abrir a la exploración de otras combinaciones. Se podría, por ejemplo, imaginar algún tipo de investigación en torno a una eventual "geometría de las vacaciones" o de la importancia de los cerros en el campo de la tecnología.


(El color celeste es irrelevante, producto de que el término fue el primero en ser anotado para iniciar una nueva cadena).

Referencias: 
E. De Bono: Po: Beyond Yes and No, Penguin Books, 1990.
R.Colle: "Bases para la creatividad en los medios de comunicación" (que aborda un tema más amplio que este taller) está en el sitio de INCOM-Chile.

martes, 8 de noviembre de 2016

¿Soy positivista? ¡No!

En la presentación de mi nuevo libro "Sistémica de los medios de comunicación" (ver posteo anterior), el dr. Sergio Godoy planteó que es "positivista y frío". Me parece que conviene aclarar el concepto y, al mismo tiempo, mi posición al respecto.

1. ¿Que es el positivismo?

El positivismo, fundado en Francia por Auguste Comte (1798–1857), para luego expandirse a toda Europa, apareció como respuesta a las dificultades que presentaban el empirismo (Bacon, Hobbes, Locke y Hume) y el racionalismo (Descartes).
Se caracterizó por el rechazo total de la metafísica, que había influido en las concepciones anteriores, especulación a la que consideró como el principal enemigo de la ciencia y de la filosofía. Así, los positivistas preconizaron la aplicación de un método inspirado en el modo de operar de la ciencia física, “que triunfaba claramente en el dominio de la naturaleza y en las aplicaciones técnicas que de ella se derivaban. La ventaja fundamental de este método es su formalización y la posibilidad de expresar sus leyes en lenguaje matemático, que hace posible la construcción de modelos teóricos a partir del rigor del cálculo” (Wikipedia). Para el positivismo, la ciencia parte de la observación de los fenómenos y, a partir de ellos, intenta explicarlos elaborando teorías que reúnen leyes generales. Rechaza toda búsqueda de propiedades ocultas: solo admite “lo real” observado. Para Comte, incluso los problemas morales y sociales podían ser abordados de esta forma (Ahí nació la sociología).

2. El positivismo en la ciencia

Frente a este modo de abordar y pretender ampliar el conocimiento surgió una opción diferente, inspirada en la herencia kantiana: la fenomenología, que pretende estudiar y describir las cosas "tal y como se manifiestan y se muestran en la conciencia". Con ello, creía poder penetrar en la esencia de los fenómenos para encontrar el fundamento de la realidad. Frantz Brentano, Edmund Husserl y Martin Heidegger son sus principales exponentes. “Husserl pretendió encontrar una «evidencia intuitiva» o intuición de esencia a través de lo fenomenológico que viene a ser una especie de intuición trascendental, en sentido kantiano, que restaura, de alguna forma, la intuición clásica de la objetividad del conocimiento” (Wikipedia). Pero de este modo vuelve a introducir concepciones filosóficas de tipo idealista que, en último término, solo llevarían a hipótesis difíciles de contrastar, por lo que la ciencia moderna ha preferido definitivamente el positivismo, que ofrece mayores garantías. Pero es sin duda una concepción demasiado estrecha de la ciencia, porque es esencialmente materialista y el conocimiento engloba dimensiones que escapan a la metodología positivista (cfr. K.Wilber, "Ciencia y religión", Kairos, 1998).

3. El análisis de sistema

La ciencia moderna tiene una evidente inspiración positivista en su modo de abordar la realidad, especialmente el mundo físico. El positivismo nos puede decir mucho sobre el reino sensorial, un poco sobre el reino mental y nada sobre el reino contemplativo. Su error ha sido de pretender que solo lo medible puede ser objeto de conocimiento científico.

La modelización sistémica, que emergió con fuerza a mediados de los años setenta, a raíz de la publicación de la obra de L. von Bertalanffy "General system theory, foundation, development, applications" (1968), ha demostrado desde entonces una extraordinaria fecundidad así como una aplicabilidad que va desde la biología (su origen) hasta la sociología, pasando por la mecánica y la informática, e incluso la lógica, la epistemología y -como lo mostró mi libro anterior "Teoría cognitiva sistémica de la comunicación"- la psicología.

La teoría de sistemas es una teoría basada en la modelización. Pero la confección de modelos es también una idea reciente en la ciencia, propia del Siglo XX. Es un método de representación del conocimiento de tipo axiomático-inductivo, que se aleja por lo tanto de los más tradicionales métodos hipotético-deductivos. El método sistémico, tanto como la modelización, es por lo tanto una opción epistemológica, cuyos postulados se oponen a los del positivismo típico de las ciencias naturales y físicas clásicas y son particularmente útiles en el campo de las ciencias humanas. En este campo, los postulados empírico-inductivos proponen considerar, metodológicamente, que: 
 "- No existe ninguna realidad objetiva dada: la realidad humana es una realidad de sentido (ligada a los significados) y es construida por los actores. Por otra parte la «realidad» de que se trata es siempre una construcción colectiva que no tiene la materialidad de un objeto físico del mundo; es siempre una construcción (concepción idealista o constructivista de la realidad). 
- No existe UNA realidad objetiva dada sino varias realidades («realidades secundarias») construidas por los diferentes actores y coexistentes al mismo tiempo, tan «verdaderas» unas como otras (negación del principio del tercio excluido). Son, por ejemplo, las creencias de diferentes actores que son todas «verdaderas» desde su punto de vista. 
- Un fenómeno, como una realidad secundaria, no existe nunca sólo. Existe necesariamente en relación con otros fenómenos. Estos fenómenos se vinculan unos a otros, forman un sistema. Ya no se puede decir que tal fenómeno «causa» tal otro, ya que hay siempre circularidades de interacciones. Los fenómenos están ligados por una relación de «causalidad circular», varios fenómenos están ligados en múltiples causalidades sistémicas. 
- Si una realidad de sentido emerge, no se debe a una (o varias) causa(s) sino a un conjunto de causalidades circulares en las cuales la realidad emergente misma tiene un lugar (negación del principio positivista de la causalidad lineal). 
- En lo que concierne al hombre y a los actores sociales, de modo general, hay que contar también con la causalidad final o teleológica. La causa ya no es solamente una causa previa, es también un proyecto, una orientación de los esfuerzos para lograr una meta situada en el futuro." (A. Mucchielli, p.11, citado en p.78 de la versión impresa de mi libro "Teoría cognitiva..."
Investigar de acuerdo a este enfoque implica que no se parte de una formulación de hipótesis que se contrasten luego mediante experimentación, sino que se formula una pregunta general y se pasa a recopilar numerosos datos que luego se categorizan y se ordenan para tratar de llegar a un esquema que ayude a entender el funcionamiento de los fenómenos estudiados.
Esta forma de trabajar puede explicar el calificativo de "frío" en el caso del libro comentado por S.Godoy, en particular porque no profundizo en las "circularidades causales", mencionando solamente relaciones e influencias, desde la perspectiva de la llamada "teoría del actor-red" pero sin aplicar extensivamente dicha teoría (que domino mucho menos pero merecería ser la base de otro trabajo).

3. Mi posición

Debe haber quedado claro que no rechazo en absoluto la metafísica, pero no la mezclo con un estudio como el que se realiza recurriendo al análisis de sistema, como el realizado en "Sistémica de los medios...". Son formas diferentes de entender y acceder al conocimiento. Estudiar la estructura esencial de los medios de comunicación aplicando el análisis sistémico no implica considerar ningún componente del "reino contemplativo", y lo relativo al "reino mental" fue considerado en mi libro anterior "Teoría cognitiva sistémica de la comunicación" (2002), consagrado al sujeto de la comunicación, donde entré en el dominio de la psicología y las operaciones mentales.

Como señalé en dicho libro, "La ciencia tradicional, simplificadora, separa lo físico, lo biológico, lo psicológico, lo sociológico. Pero resulta imposible estudiar el ser humano dividiéndolo tan tajantemente de acuerdo a estas categorías, si bien son útiles para precisar numerosos conceptos y clarificar cómo 'funciona'. No podemos deshacernos de estas distinciones y nos seguirán afectando y conduciendo, como herederos de estas tradiciones disciplinarias. Pero hemos de intentar integrar en un modelo único todo lo que podremos descubrir, para tratar de explicar el fenómeno que nos ocupa: el de la transmisión -y correlativa acumulación- del conocimiento, como elemento central de los procesos de comunicación." (p.77 de la versión impresa, p. 65 de la versión digital)
En consecuencia, debe quedar claro que no renuncio en absoluto a lo que el positivismo absoluto tiende a excluir. Pero el sujeto (y las instituciones o empresas, como "sujetos grupales") no eran objeto de este nuevo libro consagrado a los medios. Y el método sistémico, por definición, se aleja del positivismo, como explicado arriba.

Finalmente, considérese que una teoría (o explicación) científica siempre es una mera propuesta, validada por datos hasta que nuevos datos obliguen a cambiar su formulación. Y toda teoría descansa en algunos supuestos no demostrables, lo cual ha de ser reconocido por el científico si quiere ser honesto. Si quiere conocer mejor mi posición, aconsejo leer mis textos titulados "¿Ser digital o ser humano?" (n°3 de la colección de libros de INCOM-Chile) y "La ciencia y el espíritu: Científicos en busca del alma" (en ISSUU y Academia.edu).

miércoles, 26 de octubre de 2016

Sistémica de los medios de comunicación en la era de las redes


Ya se puede encontrar en la web de la Asociación Chilena de Investigadores en Comunicación (INCOM-Chile) mi nuevo libro, decargable en PDF.

Este texto viene a complementar la obra anterior del mismo autor “Teoría cognitiva sistémica de la comunicación” (Ed.San Pablo, 2002), que se centraba en el sujeto de la comunicación, abordando ahora mediante análisis sistémico la realidad y la estructura fundamental de los medios, puesta en relieve a partir tanto de la historia como de la invasión de las redes, y considerando el contexto de las influencias que se ejercen hoy sobre ellos. Combina las teorías de sistemas y del actor-red. Termina con consideraciones acerca de las diferencias entre la lógica mental y la lógica digital reticular, el poder de las redes y el futuro de la información y de la formación de profesionales.

miércoles, 22 de junio de 2016

Escribir para memorizar


En los alumnos de las universidades ya es común ver a muchos estudiantes con sus ordenadores portátiles tomando notas. Comparados con los cuadernos, tienen varias ventajas: para muchos es más rápido tomar notas con un teclado, y se pueden consultar otras fuentes (si hay WiFi). Pero así, no solo descuidamos la caligrafía: la capacidad de aprendizaje y memoria se ve lamentablemente disminuida, según indican varios estudios al respecto, como los de Karin James y de Pam Mueller. 

Karin James hizo que niños pequeños reprodujeran una letra o una forma de tres maneras: trazando la forma en un papel que tenía la forma delineada por puntos, trazarla en una hoja en blanco o escribirla en una computadora. Luego, los conectó a un scanner cerebral y les mostró la imagen de nuevo. Cuando un niño trazaba la imagen a mano, exhibía un incremento en la actividad cerebral en tres áreas que se activan en los adultos cuando leen y escriben. Pero aquellos niños que escribieron la letra usando el modelo de puntos o en la computadora no mostraban tal actividad. (Hipertextual, 28/07/2015). 

Otro estudio,hecho por Mueller y Oppenheimer, demostró que cuando se escribe a mano, el cerebro es capaz de elaborar y expresar más ideas, pues se demostró que hay una correlación entre la escritura y la imaginación. Este estudio incluyó una muestra en la que sus participantes fueron evaluados una semana después utilizando las notas hechas durante la clase (en computadora y a mano) y el desempeño de aquellos que estudiaron con sus apuntes hechos con lápiz y papel fue superior a aquellos que lo hicieron con las notas hechas en sus ordenadores. Tomar notas a mano y en papel requiere una forma de procesamiento cognitivo que estimula el aprendizaje. Usando el teclado, la mente no "digiere" nada y se olvida pronto. (ibidem

En lo que se refiere a recordar conceptos después de haber estado tomando notas, el bolígrafo aventaja al teclado según la investigadora Pam Mueller, de la Universidad de Princeton, que realizó tres estudios para comprobar cómo afecta a la memoria el método utilizado para tomar notas. Al parecer son sobre todo los iconos y otras informaciones de la pantalla que producen la diferencia, por la distracción que generan. (Microsiervos, 15/04/2015). 

El portátil (o el PC de casa) tiene sin embargo otras ventajas: las de poder acumular más información y relacionarla (por ejemplo con Evernote o con el sistema de registro de referencias y citas "Citable", una extensión de Chrome). Y también permite usar aplicaciones de visualización de datos y mapas mentales (Vea mi post anterior aquí sobre"Estrategias cognitivas" y el de "Mapas conceptuales" en mi blog de Lenguaje Visual). 

Como lo he mencionado otras veces, la imagen es una poderosa ayuda para la memoria y, de este modo, un importante complemento para el conocimiento, más aún cuando -como con los móviles- son compartidas, un fenómeno de comunicación casi desconocido antes de los teléfonos con cámara.

miércoles, 8 de junio de 2016

Pistas para una IA conversadora


Ya he abordado antes el problema de la inteligencia artificial y los trabajos actuales en este campo, especialmente el desarrollo del aprendizaje de máquina, que es el que más se usa actualmente en los "asistentes personales" y los sistemas de búsqueda y de recomendaciones en las redes sociales. 

También he señalado los esfuerzos que se realizan en el campo del procesamiento del lenguaje, que es el que mejor demuestra los avances realizados hasta hora y las limitaciones de la IA. Es también, por cierto, el que presenta el mayor interés para los comunicadores, ya que se relaciona directamente con el problema de la transmisión y del uso de la información. 

Podemos recordar que uno de los primeros intentos -ya famoso- de lograr un intercambio verbal con un computador utilizando el lenguaje natural ha sido el programa ELIZA creado por Weizenbaum en 1966, en el Instituto Tecnológico de Massachusetts. Pretendía simular una conversación entre un siquiatra y su paciente. Fue posiblemente el primer programa que logró dar la apariencia de un diálogo entre el usuario y la máquina. Pero, por cierto, a la larga, cualquier usuario inteligente terminaba descubriendo que "algo andaba mal". No había en este caso ni un mínimo de captación de sentido, sino solo una hábil previsión de palabras-claves, acompañada de reglas para formular oraciones únicamente destinadas a inducir otra afirmación por parte del sujeto humano en interacción con él. Solo había un automatismo expresivo sin verdadero contenido significativo. 

Los programadores de IA descubrieron así rápidamente que el procesamiento del mero léxico no conduce a ninguna parte y los intentos de la época (como las primeras traducciones automáticas) fracasaron estrepitosamente. 

El primer paso verdaderamente importante se dió por lo tanto cuando los investigadores descubrieron que los problemas de comprensión (sentido) no son idénticos a los de expresión (sintaxis). Si bien puede ser importante reconocer la función gramatical (sujeto, verbo, etc) de las palabras, los experimentos de I.A. -que partieron por esta vía- han demostrado que la comprensión no reside en tal identificación de funciones gramaticales sino en la capacidad de manejar los significados. En otras palabras, la sintaxis sólo indica el modo correcto de expresar verbalmente un determinado contenido conceptual y puede ayudar a reconocer éste. Como ya lo sugerimos, el ser humano, de hecho, manipula los significados mucho antes de saber de gramática. Y la comprensión del lenguaje se demuestra fundamentalmente en la capacidad de parafrasear, es decir de referirse a un mismo contenido cambiando su forma de expresión. 

Para que este "procesamiento conceptual" pueda ocurrir, se ha de informar al computador acerca del sentido de las palabras, para lo cual se ha de dotarlo de algo más que un diccionario: de un sistema que rinde cuenta de la estructura de un área del conocimiento, en que las relaciones son de suma importancia. Así, por ejemplo, se ha de explicar lo que es un regalo relacionando este término con muchos otros como dar, recibir, donación, gratuidad, explicando que la propiedad del objeto es transferida de la primera persona a la segunda, que se da generalmente con oportunidad de un acontecimiento festivo, grato, que se ha de agradecer, etc. 

Toda información inicial (o pregunta) habrá entonces de ser traducida y vertida en un modelo fundamental que represente los múltiples aspectos del significado, independientemente de la gramática. El programa deberá permitir utilizar este modelo de múltiples maneras, a fin de relacionar los datos de un modo nuevo y, así, generar una paráfrasis o una respuesta a una pregunta acerca de los datos, es decir realizar una inferencia a partir del conocimiento. 

Contando con una representación del significado en memoria, un programa orientado al diálogo en torno a este significado, debe contar además con dos segmentos complementarios: primero un "analizador" , destinado a transformar la pregunta que se haga para extraer su significado, y segundo un "generador" , capaz de unir los datos de la respuesta en una oración gramaticalmente correcta. Sólo en estos segmentos (llamados "rutinas" ) intervienen las reglas gramaticales: primero para pasar de la expresión-pregunta a su significado y luego para pasar de los datos a la expresión-respuesta. Con un generador diseñado para otro idioma, se obtiene un programa de traducción efectivamente basado en el significado, cosa que no se había podido lograr anteriormente de otro modo. 

¿De qué se componen este tipo de modelo? En el nivel inferior se encuentran los conceptos. La "comprensión" de los mismos ha sido "imitada" por muchos mediante diccionarios que contienen todas las palabras equivalentes (sinónimos) y complejas reglas para distinguir -a partir del contexto- cuando una misma palabra tiene varios significados. Se puede comprara un concepto con una molécula y -para compararla con otra- considerar los átomos que la componen. Se forman así "primitivas", que agrupan y permiten la sustitución de conceptos de idéntico significado. 

Le sigue un segundo nivel de descripción: ¿cuáles son los "elementos implicados" en cada primitiva o combinación de primitivas? Cada acción se desarrolla de un determinado modo, y el computador ha de "saberlo" para interpretar correctamente la información o la pregunta que recibe. Este desarrollo es una nueva "estructura de conocimiento" -típicamente humana- que ha sido llamado un "guión". Se ha lleguado ya a guiones complejos que encadenan múltiples acciones y consideran situaciones o "escenarios" complejos, como por ejemplo todo lo que implica "comer en un restaurante" (escoger mesa, sentarse, mirar el menú, llamar al garzón, ordenar, qué puede ocurrir si se dice al cliente que no hay lo que pide, etc...). La descripción previa de tales guiones con escenarios es fundamental para que el computador pueda manejar adecuadamente el sentido de los relatos que luego se le entreguen. 

Salta a la vista la dificultad de crear programas realmente polivalentes, capaz de abordar cualquier temática: es mucho más difícil instruir a un computador que a un niño de diez años, como dijo Roger Schank hace ya treinta años. Si los guiones son útiles en casos comunes son insuficientes en situaciones más excepcionales. Tampoco pueden describir secuencias de acciones muy largas. Y los hechos no siempre ocurren de acuerdo con un plan, lo cual plantea un problema aún mayor: deducir posibles planes a partir de un conocimiento reducido a algunos objetivos, un nivel donde resulta muy difícil pensar en un aparataje artificial. Nadie parece saber, aún, cómo resolver este tipo de dificultad, aunque se conoce desde hace varias décadas.


miércoles, 11 de mayo de 2016

Conocer al ser humano



"HUMAN" es un ambicioso proyecto del Instituto para el Estudio Interdisciplinar de Toma de Decisiones y del Centro para la Ciencia y el Progreso Urbano de la Universidad de Nueva York, y de la Fundación Kavli para cambiar la forma de entender el universo humano sobre la base de tecnologías de Big Data.
"HUMAN" es el acrónimo de "Human Understanding Through Measurement and Analytics" ("entendimiento humano mediante la medición y análisis"). Pretende acumular en forma longitudial todos los datos posibles acerca de los aspectos de la biología, el comportamiento y el entorno de una población humana representativa. 

¿Por qué es necesario un estudio de este tipo, y qué tiene que ver con los grandes datos?
Siempre ha habido una brecha entre las necesidades científicas de información acerca de la salud humana y el bienestar y los estudios realizados y los datos que pueden haber recogido. Considere una pregunta como la relación entre el envejecimiento y el declive de varias funciones del cuerpo. Los estudios han demostrado que las personas experimentan vías radicalmente diferentes en su envejecimiento. Por ejemplo, un estudio reciente mostró que la "edad biológica" de un grupo de 38 años de edad (determinado a través de diferentes marcadores biológicos) varió de 28 a 61. Esto levantó la pregunta ¿por qué algunas personas avanzan en "edad" más rápidamente que otras? Obtener una respuesta a ese misterio tiene enormes consecuencias para la sociedad, especialmente en términos de costos del cuidado de la salud. 

Desde la perspectiva del proyecto HUMAN, nuestra incapacidad para responder a preguntas como ésta es primero y fundamentalmente un "problema de los datos". La condición humana es una mezcla increíblemente compleja de biología, comportamiento y medio ambiente. Es tan complejo que la ciencia simplemente no ha podido ver esta complejidad con la resolución suficiente para empezar a obtener respuestas. 

Como señala un reciente documento del proyecto HUMAN:
    "Las preguntas de vanguardia no son contestadas porque carecemos de los datos relacionados con los reguladores genéticos de los procesos de envejecimiento, el impacto de las restricciones de crecimiento intrauterino y el maltrato infantil, la interacción del envejecimiento con la estimulación cognitiva en la edad temprana y la edad adulta, la interacción del estrés y la actividad física, y la interacción de todos estos productos con la situación económica".


La esencia del proyecto HUMAN es un intento de crear, por primera vez, una visión verdaderamente integral de la condición humana que permita contestar numerosas incógnitas. Solo es posible considerando el enorme conjunto de datos que corresponden a todas estas variables. Para ello, el proyecto HUMAN tiene la intención de seguir la vida de 10.000 seres humanos con exquisito detalle durante más de 20 años. Los datos recogidos incluirían la secuenciación del genoma completo reglamentario (3 mil millones de pares de bases) y evaluaciones del bienestar personal y del estado cognitivo, mediante aplicaciones en teléfonos inteligentes para la recogida de datos de localización geográfica a intervalos regulares, así como de los datos de las facturas, compras y gastos de los participantes (por cierto con su consentimiento).

El estudio se centrará en la ciudad de Nueva York, lo cual permitirá también "ver" simultáneamente los entornos humanos y físicos de sus participantes. Dado que Nueva York ha sido un innovador en el desarrollo de bases de datos públicas, se contaría con los datos de alta resolución de la evolución de la ciudad, los que vienen en la forma de datos del censo, estadísticas de educación y de criminalidad y registros de contaminación. Además, el Centro para la Ciencia y el Progreso Urbano (CUSP) está desarrollando sus propios métodos para "observar" la ciudad de maneras nuevas y poderosas. La capacidad de "ver" sistemas complejos tan grandes (como una ciudad y sus habitantes) a través de perspectivas multivariados y en alta resolución (en el espacio y el tiempo) tiene una enorme promesa. Pero con una gran promesa conlleva una gran responsabilidad. La aplicación de grandes volúmenes de datos para el bien público a gran escala aún debe ser probada y este proyecto podría aportar la validación necesaria y mostrar "si los grandes datos realmente funcionan" (aportando información realmente útil). 

El presente post se basa en un texto de Adam Frank, co-fundador del blog 13.7, profesor de astrofísica en la Universidad de Rochester. (National Public Radio, 26/04/2016)

miércoles, 27 de abril de 2016

Arquitecturas de aprendizaje profundo


El aprendizaje profundo (deep learning), el mayor avance actual en inteligencia artificial, implica que los datos pasan a través de grandes conjuntos de neuronas crudamente simuladas en grandes computadores de arquitectura clásica. Avanzar aquí supone contar con procesadores mucho más potentes. 

1. Lo tradicional: simulación de redes neuronales


Ahora la compañía Nvidia, cuyo hardware (procesadores gráficos) sustenta gran parte del progreso de los últimos años, ha creado un chip para mantener en marcha el progreso, el P100. Nvidia anunció hace poco un nuevo chip llamado "Tesla P100", que está diseñado especialmente para disponer de más poder para el aprendizaje profundo. Nvidia gastó más de 2 millones de dólares en I+D para producir este nuevo chip, que cuenta con un total de 15 mil millones de transistores, aproximadamente tres veces más que sus chips anteriores. Una red neuronal artificial impulsada por el nuevo chip podría aprender de los datos de entrada 12 veces más rápido que estos otros. El P100 ya está en producción y se espera que las empresas de computación en la nube puedan empezar a usarlo este año. Permitiría a los informáticos alimentar con más datos a sus redes neuronales artificiales o crear mayores conjuntos de neuronas virtuales. (MIT Technology Review, 6/04/2016).


El "aprendizaje profundo" sólo se convirtió en relevante en los últimos cinco años, después de que los investigadores se dieran cuenta de que los chips originalmente diseñados para manejar gráficos de videojuegos eran más potentes y podían servir para este tipo de procesamiento. Con ellos es posible simular las redes cerebrales, lo cual ha permitido avances rápidos en el aprendizaje de máquina y el renacimiento del software informático que pretende resolver los problemas un poco como un cerebro humano, mediante un complejo proceso de reconocimiento de patrones distribuidos a través de muchos nodos o "neuronas virtuales". El actual poder de cómputo ha permitido a las redes neuronales simuladas reconocer imágenes, palabras y caras, así como pilotar coches de auto-conducción y ganar en Go y Jeopardy. Han sido progresos notables. Pero aún falta mucho para una real imitación del cerebro humano. Dos son los caminos abiertos hoy.

2. La arquitectura real de redes neuronales


La mayoría de los científicos de computación piensan que es sólo el comienzo de lo que será posible. Este tipo de hardware se ajusta muy poco en su arquitectura a lo que son las redes neuronales biológicas. Esto significa que puede tomar días o incluso semanas entrenar una red neuronal para resolver un solo problema -incluso en un clúster de computadores- y luego requerir una gran cantidad de energía para resolver el problema una vez que están entrenados. 

IBM quiere abordar la solución volviendo a las descripciones originales de las redes neuronales artificiales que se deben a Frank Rosenblatt, psicólogo de Cornell, que creó en 1959 el "perceptrón", una red de 400 células fotoeléctricas conectadas, destinada a reconocer patrones visuales sencillos (letras). Lamentablemente, Minsky y Papert dedicaron luego un libro a demostrar la incapacidad de los perceptrones para realizar las tareas más sencillas, y el interés decayó. Resurgió a fines de los años setenta y ochenta pero se orientó hacia las redes simuladas. Los investigadores de IBM quieren cambiar ésto perfeccionando otra tecnología. Se llama "computación resistiva" y consiste en tener pequeñas unidades de cómputo de naturaleza analógica, que pueden retener su historia para que puedan aprender durante el proceso de entrenamiento. 

Acelerar las redes neuronales con el hardware no es nuevo para IBM: ya tiene los chips neuromórficos TrueNorth pero solo son útiles para resolver problemas de diseño de redes neuronales. En éstos, el entrenamiento y la "ponderación" de los parámetros necesarios en la conexiones (synapsis) aún deben hacerse en computadores normales. 

Los nuevos chips "resistivos" (Resistive Processing Units, RPUs) imitan una sinapsis cerebral: reciben una multiplicidad de entradas analógicas (voltajes) y utilizan una función de "ponderación" basada en la experiencia pasada para determinar qué debe ser traspasado a la etapa siguiente. Como no necesitan una conversión analógica-digital ni consultar una memoria externa, son sumamente rápidos y requieren poca energía. El trabajo reciente ha permitido su operación en una rejilla de 4.096 x 4.096 elementos. Los RPUs siempre tienen cierto grado de imprecisión pero se han encontrado métodos para obtener resultados con un grado de imprecisión aceptable. 

Esta nueva arquitectura se combina con chips ordinarios de tecnología CMOS (como los de las cámaras fotográficas) para la funciones de ingreso y salida de información, formando la llamada DNN: Deep Neural Network. Una CPU de un CMOS y un chip RPU de 4.096x4.096 puede realizar 51 GOps (giga-operaciones por segundo). Una vez que se pueda construir un computador con una CPU y 100 RPUs podría operar como una red neuronal de 16.000 millones de sinapsis, gastando solo 22 watts. Sería 30.000 veces más eficiente que los sistemas actuales. Ahí apunta actualmente la investigación-desarrollo de IBM. (Resumido de Extreme Tech, 1/04/2016)


3. Big data vs Ontologías


Un problema mayor del aprendizaje de máquina y del deep learning (a la derecha en el gráfico que sigue) es que no es capaz de manejar con sentido común los desafíos racionales, como la lectura y comprensión de un titular de prensa. De hecho, si nos fijamos en el poderoso Watson de IBM, hoy en día no es capaz de responder a preguntas abiertas. La computación cognitiva, que se espera para el futuro, debe ser capaz de razonar, y para ello tiene que entender conceptos como el espacio, el tiempo, la masa y la inercia, para nombrar unos pocos. Ésta es la razón por la cual el análisis de macrodatos (los big data) tendrán dificultades para cumplir con la promesa de ricos descubrimientos, sobre todo cuando se trata de datos no estructurados.


El análisis de macrodatos con el aprendizaje de máquina no utiliza relaciones conceptuales elaboradas. Lo mejor que puede ofrecer es la capacidad de clasificar, sin ninguna capacidad de contextualización, que sería un valor más útil para los negocios. En cambio, las "ontologías" (estructuras de orden semántico) ofrecen la posibilidad de modelar relaciones conceptuales más elaboradas. Este enfoque se conoce como "modelado declarativo" y permiten modelizar problemas del mundo real. Se basa en la sintaxis: sujeto, predicado y objeto son la base de una buena estructura de oración. El desarrollo de ontologías mediante la adopción de este modelo declarativo ha de recorrer aún un largo camino para proporcionar perspectivas contextuales al análisis de datos. Junto con las nuevas arquitecturas de redes neuronales quizás permitan por fin un real avance en una computación dotada de comprensión. (MIT Technology Review, 2/04/2016) .

Hace años que se conocen las ventajas de las ontologías y que se propone usarlas para desarrollar la "web semántica" pero parece poco realista esperar que todos los usuarios se plieguen a sus exigencias y menos aún que se vuelvan a describir de este modo contenidos ya publicados. ¿Quizás podría la inteligencia artificial, en el futuro, operar la transición en forma automática? 

jueves, 14 de abril de 2016

Como los algoritmos distorsionan el conocimiento


Los algoritmos son las secuencias de órdenes que conforman la base de la programación de los computadores y, ahora, de las respuestas que obtenemos cuando navegamos por internet. 

Las redes sociales utilizan los algoritmos para ordenar lo que nos mostran al abrir su página. Así, Twitter cambió la forma de presentación cronológica de los tuits por una basada en la estadística ("los más vistos"), es decir basados en un algoritmo. Instagram anunció que pronto haría lo mismo. Facebook selecciona los "News Feeds" del mismo modo desde hace tiempo y lo hace ahora con las actualizaciones de estado. (Fortune, 28/03/2016). 

Google Search selecciona los resultados de nuestras búsquedas utilizando un algoritmo ultra-complejo (más de 200 reglas). Además, "para facilitar las búsquedas" ha instalado un sistema de predicción de los términos de búsqueda, basado en este algoritmo combinado además con sus propios sistemas de clasificación. Pretende ser "objetivo" y "reflejar la realidad" pero no toma en cuenta la relativa facilidad para torcer los resultados, por ejemplo utilizando "generadores de búsquedas" que repiten centenares de veces términos que pueden ser ofensivos.
"Supongamos que un enemigo suyo, en un esfuerzo deliberado por manchar su reputación, decide pagarles a los usuarios para que busquen su nombre seguido de la palabra "pedófilo". Un ejército de entusiastas colaboradores, reclutados a través de sitios como Craiglist y Mechanical Turk, de Amazon, está generando el volumen suficiente de búsquedas para que esa palabra reemplace otros términos más positivos que se han asociado a su nombre. Ahora, cualquiera que lo busque también sabrá que quizá usted sea un pedófilo y, recuerde, no hay manera de apelar porque los algoritmos de Google son los que están a cargo y jamás se equivocan." (E.Morozov, "La locura del solucionismo tecnológico", p.168)
Lo más grave es que altera de este modo el conocimiento a nivel global. Y podríamos ir de mal en peor, porque hoy en día los algoritmos son la base del aprendizaje automático que está más que nunca al alcance de cualquier programador y que es también la base del análisis de "big data". (Vea mis posts anteriores sobre "Cambios en el acceso al conocimiento" e "¿Inteligencia? artificial") 

Los algoritmos analíticos son la base de una de las líneas de desarrollo de la "inteligencia artificial", el llamado "aprendizaje supervisado" porque -al menos- los humanos deben intervenir para dar inicialmente a la máquina algunos modelos de lo que se podría considerar útil. El principio básico, tomado del modelo humano (puesto en evidencia por Pavlov), es el "aprendizaje por refuerzo", es decir por medio de la repetición, lo cual es fácil de traducir en un mecanismo estadístico, pero es claramente más mecánico que inteligente. 

Imagine ahora que los medios de prensa empiecen a utilizar este tipo de análisis (¡y las empresas de marketing lo recomiendan!, basándose en lo que más leen sus lectores: orientarán su selección y sus reportajes en función de lo preferido por la mayoría. Y, como se sabe que las noticias deprimentes gustan poco y no se reenvíen (recuerde que los ponen también en Facebook y Twitter), terminaremos con un panorama irreal de "mundo feliz". 

¿Que podemos esperar si, como se lo proponen los expertos en inteligencia rtificial, se pasa de este aprendizaje de máquina supervisado a uno no-supervisado en que la máquina "decidiría" lo que es importante? ¿En base a qué criterios? ¿Funcionaría sin algoritmos? Se habla de "algoritmos capaces de aprender": pero son algoritmos capaces de generar otros algoritmos. Y un programador debe haber determinado el qué y el cómo. Ningún computador puede crear su propia programación. Incluso las redes neuronales (que pretenden emular el cerebro humano) deben ser diseñadas, incluir reglas de valoración y luego entrenadas, al menos para verificar que operen adecuadamente (¿y quien determina lo "adecuado"?). 

Aunque se diga que "No tenemos más remedio que recurrir a máquinas y además necesitamos que estas máquinas sean capaces de interpretar los datos, comprenderlos y sacar conclusiones de forma inteligente" porque "existe un gran valor oculto en los millones y millones de toneladas de datos que una organización puede recabar" (Xataka, 28/03/2016), es el ser humano que aporta la inteligencia, debiendo evaluar estas conclusiones. 
    "Debemos dejar de creer que los nuevos filtros y prácticas algorítmicas impulsados por los recientes intermediarios digitales (y sus entusiastas genios de internet) son aproblemáticos, objetivos y superiores por naturaleza a los filtros y prácticas que los precedieron. Esos nuevos filtros podrán ser más veloces, baratos y eficaces pero la velocidad, el costo y la eficacia guardan solo una relación periférica con las funciones civiles que los nuevos filtros y algoritmos desempeñarán en nuestra vida. Si no sometemos a esos filtros más veloces, baratos y eficaces al estricto escrutinio ético que merecen, corremos el riesgo de caer en una de las tantas falacias del solucionismo y celebrar avances relacionados con problemas menos importantes, al tiempo que desatendemos cuestiones más acuciantes aunque menos obvias." (Morozov, p.174)
La cultura misma puede verse afectada en forma global, sobretodo si se deja que sean los algoritmos que determinen lo "más interesante" sobre la base de lo más consultado, leído, visto u oído. Los "clics" y "megusta" tienden a concentrarse en opiniones no calificadas mientras las críticas de expertos resultan poco atractivas para la mayoría.

Más sobre algoritmos en internet:

miércoles, 30 de marzo de 2016

El primer nivel del pensamiento


En el post anterior (sobre Creatividad), me referí a lo que el psicólogo De Bono llama "primer nivel de pensamiento". Explico aquí un poco más de qué se trata. 

La percepción lleva a la representación y a la conceptualización. El fin de este proceso es la comprensión, que es la auto-descripción de lo percibido. Esta auto-descripción se logra por identificación del conjunto de sensaciones, si es familiar e.d. si existe su recuerdo en la memoria), o por su análisis con elementos más sencillos que sean familiares, describiendo las relaciones entre estos elementos. En esta auto-descripción, se usan generalmente significantes, es decir palabras, signos gráficos, etc., que correspondan a conceptos desarrollados en la mente y que son las verdaderas unidades de análisis del proceso de comprensión. 

Cuanto más compleja (más "abarcadora") sea la unidad de análisis usada, más fácil será la descripción de las relaciones entre unidades. Cuanto más simple (menor) sea la unidad de análisis, tanto más difícil será la descripción. Sin embargo, cuanto más simple sea la unidad, tanto más útil resulta para un uso eventual en otras circunstancios. Frente al primer gráfico que sigue, podemos pensar en una escalera. En este caso, el concepto de escalera es la unidad de análisis usada. Es la más compleja en sí y la que permite la descripción más sencilla.


Pero si tomáramos una unidad de análisis más pequeña - que podría ser el "segmento de recta" - podríamos utilizarla también para describir la figura del gráfico siguiente, aunque resultará más difícil describir ambas figuras con esta unidad más elemental. En todo caso, podemos observar que la elección de una unidad de análisis es siempre arbitraria, pero que, por "economía", tendemos a comprender todo por referencia a elementos ya conocidos y simples. Recurrimos siempre a nuestra memoria y a soluciones de problemas que han resultado ser válidas en casos anteriores. 

Además, otorgamos un alto grado de confianza a la información recogida por nuestros órganos de percepción. Muy pocas veces se nos ocurre que esta percepción podría ser errónea o sufrir transformaciones antes de llegar a nuestra conciencia, lo cual ocurre sin embargo a menudo y nos lleva a reaccionar en forma equivocada. Asi, por ejemplo, si un automovilista, al querer limpiar su parabrisas desde adentro, ve que no sale agua, pensará que le falta rellenar el depósito. Su percepción podrá haber sido exacta, pero esto no implica que la razón sea necesariamente la falta de agua. Podría estar obstruido el ducto o bloqueada la bomba de eyección.

Es fácil observar, en este ejemplo, que el error en la respuesta proviene de un "procesamiento" mental demasiado rápido, faltó investigar o recoger información complementaria. En ello habrá influido la experiencia o el aprendizaje anterior de conocimientos de su vehículo por parta del automovilista. Para él, la información "falta de agua" produce la respuesta "agregar agua". Pasa asi del nivel inicial de percepción al nivel terminal de resolución, saltándose una etapa.

Este comportamiento -muy común-, fruto de la educación formal e informal imperante en nuestra cultura, muestra a la vez una confianza ingenua en la percepción y un desconocimiento de la existencia de un nivel inicial de pensamiento, que ocurre bajo el umbral de la conciencia, y del que raras veces nos preocupamos porque se trata justamente de un mecanismo destinado a facilitar una respuesta rápida a situaciones desafiantes. Pero no siempre es necesaria una respuesta rápida. Y muchas veces necesitamos una respuesta más elaborada, basada en un análisis más detenido de la información obtenida. El resultado de este desconocimiento es que la percepción aparece a la conciencia ya teñida de un "pre-juicio". En efecto, tiende a transformarse sobre la base de la experiencia previa, de los valores culturales que hemos asumido, de opciones prefijadas que hemos hecho nuestras a medida que se desarrolló nuestra existencia. De este modo, lo percibido llega filtrado a la conciencia, debido a estas influencias y a mecanismos subconscientes. Llega por lo tanto parcialmente procesada, sin que nos demos cuenta de ello. Aparece a la conciencia como la manera obvia de percibir. Al faltar la conciencia de que no es tan obvio, un análisis racional posterior de la información así admitida resultará difícil o inválido. 

jueves, 17 de marzo de 2016

Creatividad


La creatividad se define como la capacidad de generar nuevas ideas o conceptos, o nuevas asociaciones entre ideas y conceptos conocidos. Es evidentemente una habilidad del sistema nervioso y no es posible estudiarla sino considerando los aportes de las ciencias cognitivas dado ese carácter mental, basado en estructuras biológicas.

Cuando hablamos de creatividad, debemos distiguir dos situaciones o tipo de problemas diferentes: 1. Lo que se podría llamar "creatividad ordinaria", que corresponde a lo que hacemos diriamente para solucionar pequeños problemas y para realizar nuestra labor profesional. 2. Lo que podríamos llamar "creatividad específica", que corresponde a la aplicación de la imaginación para solucionar problemas complejos inventando nuevas vías de solución o nuevas hipótesis, o creando nuevos objetos. Una habilidad de este tipo no suele ser propia del común de los seres humanos sino solo de algunos privilegiados, sea que esta habilidad sea propia de su personalidad sea que la hayan desarrollado mediante algún tipo de entrenamiento.

¿Que es lo que más limita al "común de los mortales"? El no ser capaz de salirse de las "formas comunes" dice el dr. De Bono, eminente fisiólogo y psicólogo inglés. Lo ejemplifica del siguiente modo en algunas de sus conferencias: solicita a sus auditores que imaginen un reloj que cumpla eficientemente su rol sin tener ninguna parte móvil (ni caracteres digitales) visible. Raras veces obtiene la respuesta correcta, aunque es sencilla: sería un reloj acústico (que "dijera" la hora en vez de mostrarla). Estamos tan acostumbrados a ver un reloj que nos cuesta pensar en un reloj parlante. Lo mismo ocurre en numerosas otras experiencias: no podríamos nunca abrir una puerta que deba levantarse (salvo quizás la del garaje), tan acostumbrados estamos a empujarlas hacia un lado (o esperar a que se abran solas).

¿Cuál es el problema? Por una parte, existe un campo cerebral de elaboración de información que prescinde normalmente del análisis conciente (a no ser que hagamos un esfuerzo especial para imponerlo), que varía principalmente en función de factores emocionales y aparece como un mecanismo regulador y protector de la integridad de la persona. Por otra parte, interviene la memoria. Lo percibido (o buscado) llega habitualmente a la conciencia filtrado por mecanismos subconcientes, parcialmente procesado sobre la base de lo ya acumulado en nuestra memoria. La experiencia o el aprendizaje anterior de ciertos tipos de conocimientos no solo puede facilitar nuestra comprensión o reacción: también puede llevar a una conclusión errónea si no se toman ciertas precauciones. Finalmente, los métodos dominantes de la educación formal no ayudan mucho a desarrollar el pensamiento crítico y menos aún a lo que de Bono llama "primer nivel de pensamiento", que debemos intentar llevar a nivel conciente realizando una triple selección:

  1. aprehender la parte de la situación percibida que ha de ser utilizada 
  2. seleccionar los conceptos que han de ser usados en el procesamiento 
  3. seleccionar los valores y prioridades asociados a estos conceptos. 

Solo después de realizar estas operaciones podemos pasar al segundo nivel, que es el que utilizamos en forma habitual para el "tratamiento" de la información percibida. Cuando prescinde de este "primer nivel", nuestro pensamiento se basa en una triple falacia:

  1. Estimar que la manera "establecida" de considerar una situación es la "justa" y la única posible. 
  2. Creer que procesando lógicamente la situación logrará una mejor percepción de la misma. 
  3. Creer que si la lógica o matemática aprendida es suficientemente buena, debe permitir encontrar siempre la respuesta exacta, cualquiera sea el punto de partida.

Técnicas

Algunas técnicas pueden ayudar a ser creativo. La más conocida es la lluvia de ideas (brainstorming) que De Bono sugiere orientar a la asociación de todo tipo de ideas y conceptos por más ridículas o absurdas que parezcan (cualquier censura se prohibe). Solo al terminar el trabajo grupal se hace una revisión y se va descartando todo lo que resulta imposible, no sin antes tratar de relacionar ideas enunciadas en forma separadas. En un centenar de propuestas, dice, sería extraño que no hubiese una o dos que valgan la pena de ser exploradas.

Otra técnica es la que llamó "Seis sombreros para pensar": expresar una opinión tras otra cambiando de "sombrero". El sombrero blanco implica que el punto de vista tiene que ser lo más neutral posible, analizando las cosas con datos, hechos o cifras. El sombrero rojo corresponde a una visión más subjetiva, guiada por las emociones, los sentimientos o las intuiciones. El sombrero negro es para ser crítico de manera negativa y pensar por qué algo no podría salir bien. El Sombrero amarillo es el contrario: se buscan los aspectos positivos sobre un determinado aspecto. El ssombrero verde abre las posibilidades creativas y está íntimamente relacionado con la idea de pensamiento lateral o divergente. El sombrero azul es el que controla los tiempos dados a cada uno de los anteriores.

De Bono propone también el "pensamiento lateral", una forma de desarrollar este "primer nivel" de pensamiento, comparándolo a lo que ocurre cuando nos encontramos en un callejón sin salida: retrocedemos, exploramos y tomamos una vía alternativa.

Además sugiere -en la lluvia de ideas u otro ejercio- el uso de una preposición neutra (propone "PO"), que no es ni "y", ni "o", ni "sí" ni "no". Una expresión podría ser, por ejemplo, "reloj PO zapato", lo cual puede hacer pensar en zapatos que registren las horas de uso (algo hoy considerado en los "wearables").

¿Se necesita algo más?

Por cierto volutad, pasión, paciencia y resiliencia (resistencia frente a los fracasos). Alvin L. Simberg ha estudiado las características de los bloqueos de la creatividad, anotando entre ellos el aprendizaje social de modelos de conducta, de normas y modelos de interacción. Así, saber romper con la rutina diaria o con las ideas comunes es muy importante. Y aunque la especialización en el ámbito de interés puede ser una razón del bloqueo, también puede ser necesaria para perfeccionar un nuevo modelo (es difícil engendrar una idea nueva si no se domina toda la información relevante sobre el problema).

¿Donde están los creativos?

Esta pregunta es capciosa. En efecto, se acostumbra llamar "creativos" a los diseñadores y publicistas. Y Google nos referiría a éstos si buscamos los términos "estudiar la creatividad". Pero si bien la creatividad forma parte del quehacer de estos profesionales, el campo es mucho más amplio y los verdaderos creativos -los genios creativos- mucho menos numerosos a menos que consideremos toda la historia.

No todos los días se puede crear un iPhone o inventar un Facebook. Puede ser interesante estudiar el origen de éstos y otros inventos: veríamos que algunos son casuales, pero muchos son el producto de una larga historia de intentos fallidos y reinicios.

En las ciencias básicas vemos surgir constantemente propuestas y investigaciones novedosas, y sus correspondientes descubrimientos. ¿Pero que ocurre con las ciencias sociales? Sin ponerlos en un mismo plano de rigor, puedo citar a algunos que están en mi biblioteca: J.Searle, U.Eco, N.Luhman, E.Morin, M.Mc Luhan, K.Wilber, quienes -al menos- han introducido conceptos o enfoques nuevos. (¡Perdón si no cito su autor preferido!)


¿Son creativos los medios de comunicación? 

Internet los ha sacudido, pero -salvo excepciones- siguen repitiendo ahí su misma fórmula con meras "adaptaciones" y escasas soluciones novedosas (¡Agregar vídeos en las páginas web de un diario no implica mucha creatividad!). Lo que se necesita es "repensar la comunicación" desde la esencia de lo digital... ¡Creativamente! ¡Y dejarse interpelar por los enfoques que pueden parecer fantasiosos (estoy pensando, por ejemplo, en "Salvar los medios de comunicación" de Julia Cagé, que propone que los medios pasen a ser fundaciones sin fines de lucro). O los que proyectan el futuro, como "La singularidad está cerca" de Ray Kurzweil.

Un buen ejercicio podría ser también explorar los buenos autores de ciencia ficción tecnológica (Julio Verne previó el París de 1960 y Asimov previó en 1964 varios artefactos hoy existentes, como también en "2001").


Fotograma de "Sentencia Previa"


INCOM-Chile, la Asociación Chilena de Investigadores en Comunicación acaba de anunciar su III Congreso, a efectuarse en noviembre 2016, sobre el tema CREATIVIDAD E INNOVACIÓN PARA INVESTIGAR LA COMUNICACIÓN (Convocatoria aquí).

Referencias:
De Bono, E.: "Po: Beyond Yes and No", Pelican Books, Aylesbury, 1973. "The Use of Lateral Thinking", Penguin Books, Harmondsworth, 1975 (El pensamiento lateral, Barcelona, Paidós). "Six Thinking Hats: An Essential Approach to Business Management", Little, Brown, & Company, 1985.
Simberg, A.L.: "Los obstáculos a la creatividad", en Davis y Scott (Comps.): Estrategias para la creatividad (pp. 123-141). Buenos Aires, Paidós, 1975.
Asimov, I.: Visit to the World’s Fair of 2014, New York Times, 1964.
Verne, J.: "París en el Siglo XX", Planeta, 1995.

miércoles, 6 de enero de 2016

Proyectos de e-Learning

Bases de proyectos de e-learning

La creación de herramientas de apoyo al aprendizaje debería tener especialmente en cuenta aspectos como: la fundamentación de los contenidos en el enfoque del “estudio basado en metas” (goal-driven learning): el proceso debe ser guiado por un razonamiento acerca de la información necesaria para servir los objetivos pedagógicos; la inclusión de guías de “meta-estudio”, según el principio del estudio guiado por introspección: se debe guiar al estudiante para que reflexione acerca de su modo de pensar acerca del tema y, así, integre más fácilmente en su mundo mental los eventos y las relaciones causales propios del tema; la inclusión de filtros atencionales positivos y negativos (motivadores, reforzadores y correctivos) y de agentes personalizadores en interfaces más ajustadas a los usuarios.

Un grupo de científicos del Laboratorio de Inteligencia Artificial y Ciencias de la Computación del MIT ha realizado un estudio para demostrar que todavía falta mucho trabajo para que el e-learning llegue al nivel ideal, a pesar de las buenas previsiones que le esperan para el futuro. Han analizado los datos proporcionados por la plataforma educativa online edX, dirigida por el mismo instituto y la Universidad de Harvard, acerca de los hábitos de visualización de más de 100.000 estudiantes a lo largo de 6,9 millones de sesiones vídeo. Las principales conclusiones a las que ha llegado el MIT sobre los cursos online han sido las siguientes: Los vídeos cortos son más interactivos y crean un nivel de implicación mayor. Es recomendable que no pasen de los 6 minutos de duración. La diversidad visual es más efectiva: la alternancia de diapositivas con imagenes de una persona que las explica tiene mejores resultados que en el caso de una presentación PowerPoint estática. Los vídeos grabados en un entorno informal son mejor recibidos que los vídeos que suponen un presupuesto elevado. El dinamismo visual de las presentaciones atrae más la atención del usuario: el movimiento y la fluidez visual combinada con improvisaciones en el discurso ayudan a que el tutorial sea más interesante. La adaptación de los vídeos para la plataforma online es esencial y más importante que la calidad del vídeo. La rapidez y la dosis de entusiasmo del discurso influye en la receptividad del vídeo. Los participantes necesitan pausas durante la presentación verbal del contenido para asimilar los conocimientos aprendidos. (TICbeat, 2/08/2014).

Tipos de proyectos de e-learning

    Manuales digitales
Los manuales electrónicos (hipermediales o no) acompañados de tutoriales (guías de estudio) y sistemas de verificación del conocimiento adquirido, como nuestro “Mentor”, sobre el Procesamiento Cognitivo de la Información, que desarrollamos en HyperCard, en la Pontificia Universidad Católica de Chile, ya en 1989, y nuestro curso titulado “La imagen: ventana al conocimiento”, que estuvo en línea hasta mediados de 2014, son una primera modalidad de e-learning.
    Cursos abiertos en línea
La mayoría de los MOOC son gratis porque su objetivo es ofrecer educación de calidad a gente alrededor del mundo que no tiene los recursos para pagar o asistir a cursos presenciales, ampliando la educación a lugares que antes no tenían acceso a distinguidos profesores (BBC Mundo, 26/07/2013). 

Un problema de los MOOC es el de la evaluación: ¿cómo hacerla con miles de alumnos? Algunos usan un sistema automatizado que revisa las respuestas, pero éste método sólo suele ser válido cuando el examen es de opción múltiple o de respuestas cerradas. Para respuestas abiertas o más complejas, la mayoría de los cursos en línea utilizan un sistema de revisión entre alumnos: después de enviar una respuesta, cada uno debe revisar la de un compañero dando una detallada argumentación (y se han de definir el número de interacciones), lo cual presenta ciertas limitaciones a la valoración y hacen que algunos consideren estos cursos como una amenaza a la calidad de la formación. 

Uno de los problemas asociados a los MOOC -y al e-learning en general- es el de la identificación de los estudiantes. Y para ello se han aplicado diferentes tipos de técnicas, como la grabación de la actuación del alumno a través de una webcam, pero no garantizan completamente la no suplantación.

    Hipernovelas
Asociadas a los juegos educativos pueden ubicarse también las hipernovelas educativas. Se pueden desarrollar guías de estudio que tomen la forma de una novela policial para, por ejemplo, llevar al alumno a buscar datos y, así, acumular conocimientos. En este caso, el acento se pone en la guía de estudio. Pero también se pueden desarrollar hipernovelas educativas con un mayor componente interactivo. El hipertexto se presta admirablemente como medio para apoyar los procesos de enseñanza-aprendizaje y, en particular, la hipernovela se presta para desarrollar casos y procesos de investigación (exploración) sobre una base “incidental” (es decir aparentemente casual). El lector-estudiante escoge su propio camino por el hipertexto, definiendo su propia trama en medio de la red de todas las posibles lecturas. Es constructor de coherencias (papel que, antes, era exclusivo del autor). Él es quién determina si lo que lee tiene sentido, dentro de qué contexto y en relación a qué otras informaciones. Pero es de este modo que comprende y, por lo tanto, que aprende, tal como lo viene haciendo desde su nacimiento a través de los acontecimientos diarios, de los cuales siempre ha aprendido en forma natural, sin darse cuenta de ello, como nos enseña la psicología genética. (Puede consultar mi texto "La hipernovela como método de e-learning" en ISSUU
    Juegos serios
Hay que recordar que el juego ayuda a motivar y a ejercer los músculos mentales y que las herramientas multimedia mejoran la capacidad de memoria de nuestro cerebro (éste prefiere las imágenes al texto). Los “serious games” o “juegos educativos”, sean de simulación o instrucción, tienen un componente estratégico basado en cierto conocimiento experto. El juego serio ha sido definido por Mike Zyda como “una prueba mental, llevada a cabo frente a una computadora de acuerdo con unas reglas específicas, que usa la diversión como modo de formación gubernamental o corporativo, con objetivos en el ámbito de la educación, sanidad, política pública y comunicación estratégica” (M.Zyda, 2005). En los países anglófonos, se habla de “edutainment”, palabra derivada de la contracción de ‘education’ y ‘entertainment’, es decir enseñanza entretenida o “ludoeducación”, que se refiere a la enseñanza mediante el juego. En un ámbito más amplio que el de la educación, se habla de “ludificación” o “gamificación” (castellanización de ‘gamification” u operación de dar forma de juego). La ventaja de estos sistemas es el involucramiento de los alumnos, lográndose habitualmente un fuerte compromiso sin ejercer presión, aunque ello depende evidentemente de la calidad del juego. Los estudiantes que aprenden a través de contenidos “gamificados” obtienen un resultado 9% mayor en conocimientos y 14% superior en habilidades según la empresa evaluadora de aplicaciones Capterra. El mercado de los juegos de aprendizaje es de 3.900 millones de dólares, y se espera que crezca a 8.900 millones en 2017 (Capterra, 5/03/2014). 

Este tipo de tecnologías goza cada vez de mayor aceptación como lo muestra un estudio del año 2012 llevado a cabo por la empresa GfK y en el que participaron más de 500 profesores de educación primaria de toda España. Mostró que casi 1 de cada 3 docentes había realizado actividades con videojuegos con sus estudiantes (sobre todo en matemáticas, conocimiento del medio y lengua española) y que el 79% del profesorado manifestaba la aprobación del uso de videojuegos como herramienta educativa para la enseñanza. Los videojuegos son muy útiles, entre otros, para mejorar la concentración y favorecer el desarrollo del pensamiento lógico y sistemático, la capacidad deductiva e inductiva, la capacidad analítica, estratégica y de planificación de la acción, la evaluación de situaciones para la toma de decisiones, etc. También proporcionan innovadoras técnicas de evaluación como llevar a los alumnos a crear sus propios videojuegos gracias a plataformas como GameMaker Studio y e-Adventure sin necesidad de tener conocimientos en programación (El País.es, 21/07/2014). 

Un consejo de Imma Marín, asesora pedagógica de la Fundación Crecer Jugando y experta en nuevas tecnologías y educación: “No tiene sentido hablar de construir el aprendizaje a través del juego si no juegan las dos partes (profesores y alumnado): es decir, no funciona si una de las partes hace jugar a la otra, sin implicarse en el juego” (IBSchool, 27/07/2014).

Tipos de juegos

  1. Juegos de simulación
    Los “simuladores” son conocidos de larga data en el ámbito de la formación profesional especialmente con los simuladores de vuelo, que han sido incluso popularizados con el “Flight Simulator” de Microsoft. En algunas áreas de la educación superior se han ido introduciendo los sistemas de simulación por medios informáticos, cuyo grado lúdico es evidentemente muy variable. Se pueden encontrar hoy incluso simulaciones de salas de cirugía. 
    Pero si consideramos sistemas más lúdicos, también existen excelentes muestras de juegos de simulación, como lo es “Sim Ants”, reconocido por los especialistas como la mejor representación de cómo trabajan y “guerrean” las hormigas. Son más conocidas las múltiples versiones del juego (comercial) “Civilization”, de Sid Meyers, que supone que se descubran algunas reglas de los procesos históricos, reglas que el producto, lamentablemente, no explicita. 
    Para que productos como Sim City y Civilization puedan ser realmente recursos educativos, deberían permitir no sólo el acceso a sus reglas (que sostienen su programación pero no se exponen al usuario) sino incluir un tutor que ayude a tomar las decisiones correctas si el jugador lo desea.
  2. Juegos de instrucción
    También llamados “aprendizaje basado en juego”, se caracterizan por incluir toda la teoría en el mismo juego a fin de mejorar el aprendizaje, tratando de equilibrar la enseñanza con la “jugabilidad” y mantener un alto nivel de entretención. Al lado: “Life Preservers”, un juego de Carrie Heeter Brian Winn sobre la evolución e historia de la vida en la Tierra (2004).
  3. Juegos de evaluación
    Otros juegos pueden ser utilizados fundamentalmente como complemento del estudio, para evaluar el resultado del aprendizaje, sea a medida que se avanza sea al final del proceso.
  4. Juegos de investigación
    Un equipo de la Universitat Jaume I (UJI) de Madrid estudió el valor educativo de los juegos de enseñanza, llegando a formar una empresa dedicada a crear productos de este tipo para el ámbito de la geografía: Ubik Geoespatial Solutions. “Por ejemplo, hemos desarrollado una app que se llama ‘La batalla del ruido’ en la que los usuarios deben grabar clips de audio de diferentes zonas para conquistarlas y competir entre ellos usando los niveles de ruido que han recogido. Al final se consigue un mapa de ruido elaborado de forma colaborativa a través del juego”, explican. “Esta tecnología abre numerosas posibilidades a una amplia variedad de estudios y proyectos”, añaden (Sinc, 16/05/2014)
  5. Tutoría “gamificada”
    Al profesor y programador Shawn Young le sorprendía que con toda la tecnología disponible hoy en día, siguiéramos enseñando igual que lo hemos hecho durante décadas. Con la ayuda de su padre y su hermano, Young creó Classcraft, una iniciativa que ya utilizan más de 7.000 niños en escuelas de 25 países, a pesar de estar solo disponible actualmente en inglés y francés. Classcraft es un juego RPG (role-playing game) pensado para servir de herramienta adicional a las clases con libros, alumnos y profesor. En Classcraft cada alumno asume el rol de un personaje (sanador, guerrero o mago) y tiene que ir acumulando puntos para subir de nivel y acceder a ventajas en el mundo real. Ayudar a otro estudiante con sus deberes da 75 XP (experience points); encontrar un error en los apuntes de clase, 50; participar y trabajar duro cada día, 100. Se pierden puntos si se llega tarde a clase y si no se hacen lo deberes. Los jugadores pueden “morir”, perdiendo todos los puntos y dañando a sus compañeros de equipo. Según Young, el juego motiva a los estudiantes, les enseña a colaborar con sus compañeros y, sobre todo, hace que estudiar y aprender sea algo más divertido. (Gizmodo, 4/06/2014).