Algunas de las noticias que se publican en los medios de comunicación causan polémicas y son muchos los que dan su opinión al respecto. Una parte de esos muchos se dedican a publicar sin tan siquiera haber leído la noticia en cuestión. Con tanta información en internet nos hemos hecho adictos a la lectura en diagonal, a leer ciertas partes de la noticia de una forma rápida porque no tenemos tiempo o las ganas suficientes para leernos toda la información.
Con estas premisas y cansados de las opiniones tóxicas que se realizaban en sus noticias, los medios de comunicación se han puesto las pilas, en concreto uno de noruega, en concreto el medio de comunicación NRK, quiénes han decidido crear un «examen» de unas tres preguntas, cuyas respuestas están en la propia noticia.
Este «examen» hace tres preguntas sencillas, por ejemplo: que les digamos unas siglas que aparecían durante la noticia o preguntas sencillas para hacer entender al bot del formulario, si hemos leído y comprendido la noticia. La razón por la que han decidido crear esta herramienta es porque creen que si un lector se ha leído toda la noticia y la ha entendido, podrá emitir una opinión que realmente aporte algo al debate que se puede generar en las noticias de los medios de comunicación.
Este tipo de formulario que se desarrolla en 15 segundos además puede calmar las emociones del lector, y es que sirve como filtro, uno para que se lean el contenido y dos para que a la hora de contestar no se haga con el primer impulso que muchos toman al leer el titular sin más.
Pasando de los comentarios tóxicos
Desde hace como dos meses tanto los gigantes tecnológicos tipo Google, Facebook o similares están intentando poner sobre la mesa un código de buenas prácticas para evitar que se difundan las noticias falsas y también para poder identificar comentarios tóxicos. En esta línea Alphabet, la matriz de Google, ha creado una herramienta que se denomina Perspective.
Se denominan comentarios tóxicos aquellos que hacen a otros abandonar la conversación o el debate que se ha generado en una noticia, principalmente de los medios de comunicación, para quién está destinada esta herramienta. Perspective se basa en la inteligencia artificial para crear esta herramienta que irá aprendiendo con el tiempo el tipo de comentarios que un medio considera tóxico o no.
¿Cómo funciona?
La herramienta hace un barrido de las diferentes opiniones vertidas en algún foro, que las clasifica de 0 a 100 el grado de toxicidad que está permitido dentro de ese medio. Al principio serán los propios editores de los medios de comunicación quiénes tendrán que ir puntuando esos grados tóxicos. Y con el tiempo, el propio sistema identificará otros comentarios según el rango que hayan fijado al comienzo de poner en marcha esta herramienta.
¿Ya lo utiliza alguien?
Son varios medios de comunicación en inglés los que han empezado a poner en marcha este algoritmo: The New York Times, The Economist y The Guardian, para evitar que gente que podría aportar información relevante sobre una noticia no huya despavorido por los comentarios sin sentido y críticos de otros usuarios.
Aunque de momento sólo está disponible en inglés, nos permite instalarla en cualquier página web con acceso a comentarios, según vaya aprendiendo y mejorando la herramienta irá estando disponible en otros idiomas y seguro que también con otras funcionalidades.
¿Por qué una herramienta y no unos moderadores?
Sólo en el New York Times, uno de los medios que participa de forma activa en la herramienta, recibe unos 11.000 comentarios al día y eso que sólo tiene habilitado el 10% del contenido dónde los usuarios pueden opinar sobre las noticias. Necesitaban hacerlo de una forma más automática y rápida, según Perspective la idea es que entre el aprendizaje de la herramienta y los comentarios de las noticias se llegue a un equilibrio para que puedan dar acceso a opinar en el 90% restante de contenido.
¿Y las redes sociales? ¿Qué están haciendo?
Twitter, en concreto, cada cierto tiempo anuncia mejoras relacionadas con los mensajes abusivos y también tóxicos que se producen en ella. Como sabéis Twitter es quizá la red social en la que más perfiles falsos existen y en la mayoría de las ocasiones para poner en duda o insultar a otros usuarios. Este mes Twitter anunció que bloqueará, mejor dicho silenciará, los perfiles que hayan hecho comentarios ofensivos sobre otros. Es decir, que si publicamos un tweet de odio y nos han bloqueado porque ya hemos emitido otros antes, sólo lo podrán ver nuestros contactos. Serán medidas temporales, porque pasado un tiempo volverá a poder a tweetear para todo el mundo.
¿Cómo terminará todo esto?
Esperemos que no acabe siendo una herramienta de censura y que se unan todos a una para que los comentarios tóxicos no sean lo normal en las noticias de los medios, y que los medios poco a poco vuelvan a abrir la sección de comentarios que tantos han cerrado por miedo a los comentarios de este tipo de usuarios que ensucian la red.