¿Por qué no se pide a las empresas tecnológicas que
hagan la prueba de los beneficios educativos de sus productos o de su inocuidad
para la salud de nuestros hijos?
Francia quiere proteger a los bebés de móviles,
tabletas y televisores con un etiquetado en los embalajes que advierta de los
problemas de salud que los más pequeños pueden sufrir por la exposición a estas
pantallas. Esa proposición de ley, ya aprobada en el Senado, pero que aún debe
ser votada en la Asamblea Nacional, busca obligar a los fabricantes de esos
dispositivos a que incluyan un aviso sobre los riesgos para el desarrollo
durante la primera infancia (de 0 a 3 años).
¿Medida exagerada? Tenemos pruebas de los riesgos
que puede tener el consumo de pantalla en los niños: merma de la atención,
aumento de la impulsividad, disminución del vocabulario, etc. Basándose en esos
estudios, las principales asociaciones pediátricas recomiendan que los niños de
menos de 2 años no estén expuestos a las pantallas, y que los de entre 2 a 5
años no lo estén más de una hora al día. Pero, ¿son suficientes esos estudios?,
¿son exageradas esas recomendaciones? ¿Implica necesariamente que un niño (el
mío o el suyo) que usa la tecnología tenga todos esos problemas? ¿Todos los
niños que usan tecnología siempre sufrirán esos problemas? Si solo hablamos de
riesgos, ¿es un motivo suficiente para prohibir, o para regular a las empresas
que diseñan esos dispositivos?
En realidad, de lo que se trata, es mucho más
amplio y complejo que de responder a la pregunta de lo que ocurrirá con
seguridad si mi hijo usa un dispositivo de forma puntual o continuada. Se
trata de entender la diferencia entre la cultura de la temeridad y la de la
precaución.
En 1986, el transbordador espacial Challenger explotó
73 segundos después de su lanzamiento al espacio, ante la mirada horrorizada de
millones de americanos que seguían el despegue en directo. Fue el accidente más
grave en la historia de la conquista del espacio. Murieron siete personas, de
las cuales una no era astronauta: Christa, una maestra de primaria que había
sido elegida para participar en un programa educativo que consistía en dar
clases a los niños americanos en directo desde el espacio. Una idea
“innovadora”, que tenía como objetivo la revitalización del interés general por
la educación.
Poco después, se creó una comisión Presidencial de
investigación para indagar en las causas de la explosión. La comisión estaba
formada por personas, o bien afines, o que se debían al Gobierno americano o a
la NASA. Solo un miembro era complemente independiente: Richard Feynman, Premio
nobel de física. El informe de la comisión fue criticado por ser demasiado
complaciente a los intereses de los que lo habían encargado. Algunos ingenieros
que estuvieron participando en las pruebas preparatorias de la misión sabían
que la explosión no fue un incidente fortuito, sino que fue la consecuencia de
varias negligencias serias que se habían identificado antes del despegue. Esos
ingenieros intentaron dar fe de esas negligencias durante la comisión presidencial,
pero fueron callados, ignorados por los medios, uno incluso fue despedido de su
trabajo. Años después, cuenta la verdad en reportajes que ya no son noticias. Y
se puede leer la apreciación de los hechos de Robert Feynman en un texto que
fue relegado al Apéndice F del informe de la Comisión. Pero, ¿qué es lo que
pasó antes del despegue del Challenger?
Los ingenieros ya habían advertido del riesgo de
explosión de unas juntas llamadas O-Rings, dada la escasa capacidad
de dilatación de esas juntas en presencia de cambios extremos de temperatura.
Ante previsiones de temperaturas muy bajas en víspera del despegue, advirtieron
del riesgo de explosión, pidiendo un atraso del lanzamiento hasta encontrar una
solución al problema de las gomas.
Entonces ocurrió algo inédito. Los altos mandos de
la NASA retaron a los ingenieros que recomendaban no despegar, de hacer la
prueba de que la nave iba a explotar. Los ingenieros podían proporcionar
pruebas del riesgo de explosión de la nave, pero no podrían probar, fuera de toda
duda razonable, que la nave iba a explotar. Para entenderlo mejor, es como si
la NASA dijera: “Si hay un X % de posibilidades de que explote, no es
suficiente para parar el lanzamiento, solo pararemos la misión si nos prueban
que el riesgo de explosión es del 100%.” En definitiva, lo que hicieron los
altos mandos de la NASA fue, ni más ni menos, invertir el peso de la prueba.
¿Por qué lo hicieron?
Hacía años que el gobierno no había cumplido con
una misión espacial y estaba siendo criticado por ello por la prensa. La
maestra debía dar clases desde el espacio en días lectivos, retrasar el vuelo
hacía caer esas clases en días de fin de semana. El subcontratista de los O-rings no
quería quedar mal con la NASA, la NASA no quería quedar mal con el gobierno, y
el gobierno no quería quedar mal con la ciudadanía. En definitiva, las
expectativas políticas, mediáticas y sociales eran grandes: había presión por
cumplir. Y los riesgos eran trabas, obstáculos. Incómodos para los intereses
particulares de todos los actores involucrados. La única salida para el
despegue: invertir el peso de la prueba.
En su informe, Feynman va más allá y dice que la
NASA estuvo sistemáticamente infravalorando los riesgos, que la decisión de
incluir a la maestra en la tripulación se tomó con frivolidad, ya que la
nave Challenger no era un vuelo comercial, sino una misión
experimental. Contrasta la evaluación del riesgo de catástrofe que manejaban
los altos mandos de la NASA con la de los ingenieros. Los altos mandos decían
que había una posibilidad de catástrofe de 1 sobre cada 100,000 despegues,
mientras que los ingenieros hablaban de 1 sobre cada 200. Esa discrepancia de
criterio era consecuencia lógica de una cultura en la que no se quería acoger
malas noticias, sino solo las buenas -las que beneficiaban a la reputación de
la NASA y al Gobierno en la opinión pública-, lo que dificultaba el realismo en
la toma de decisiones. Feynman escribe en su informe:
“Es preciso hacer recomendaciones para que los
altos mandos de la NASA vivan en un mundo de realidad. Comprender los puntos
débiles y las imperfecciones de la tecnología permiten intentar eliminarlos
activamente. La NASA se debe a los ciudadanos, de los que pide apoyo, de ser
honesto y de dar toda la información, de forma que esos ciudadanos puedan tomar
buenas decisiones para la asignación de sus limitados recursos”.
Cuando leo sobre esa historia, no puedo impedir
hacer paralelismos con la introducción masiva de las tecnologías en la
infancia. No porque piense que algún dispositivo tecnológico vaya a explotar en
las manos de nuestros hijos, sino por la inversión del peso de la prueba de un
experimento a gran escala. No se pide a las empresas tecnológicas que hagan la
prueba de los beneficios educativos de sus productos, o de su inocuidad para la
salud de nuestros hijos, sino que se exige a los que invitan a la precaución y
a la prudencia (llamándolos “tecnófobos”) que hagan ellos la prueba del daño. Y
como la ciencia es muy costosa y muy lenta, y la obsolescencia tecnológica es
muy rápida, las evidencias siempre llegarán tarde. Llegarán cuando esa
tecnología sea obsoleta y dé paso a otra a la que tampoco verán necesario
probar sus bondades o su inocuidad. Y el daño, ya estará hecho.
En realidad, lo que ocurre es que somos a la vez
sujeto y objeto de la ciencia, somos a la vez juez y parte de la investigación.
Si nos estudiamos a nosotros mismos, entonces ¿no hay peligro de carecer de
objetividad en enfocar la investigación y en acatar sus resultados? Quizás esa
paradoja puede explicar que nos cueste tanto ser objetivos en encarnar la “sana
duda” y que nos resulte tan incómodo hacernos preguntas arriesgadas. Quizás
explica que nos cueste tanto creernos los resultados de las investigaciones, o
nos cueste tanto difundirlos cuando suponen grandes cambios en nuestros estilos
de vida o desautorizan nuestras opiniones o nuestras mayores ilusiones. “No me
lo creo”, decía aquel tras leer un informe sobre el cambio climático. ¿Cómo
llamar al que ignora o no quiere saber, pero, pese a ello, no duda en actuar?
Temerario, sin más. Y cuando hay intereses económicos de por medio, todo se
vuelve aun más borroso.
El Premio Nobel Feynman apunta a un fallo entre los
datos proporcionados por la ciencia y la toma de decisión de los que gestionan
los recursos económicos. Concluye su informe con un llamamiento a la cultura de
la precaución: “Para que una tecnología sea exitosa, la realidad debe
prevalecer sobre las relaciones públicas, porque la naturaleza nunca puede ser
engañada.”
Fuente: https://elpais.com/elpais/2018/12/04/mamas_papas/1543913018_274281.html
Por
CATHERINE L'ECUYER
Investigadora y
divulgadora de temas relativos a la educación y autora de Educar en el asombro
y de Educar en la realidad.
0 comentarios:
Publicar un comentario