El atajo de los Wharsapp falsos

COMPARTIR

No es optimismo pero el auge de las «fake news» puede tener un lado positivo: obligarnos a aprender a usar la tecnología, a cuestionar lo que vemos en Internet, su procedencia, su intención y su impacto. Si bien las compañías, como Facebook, Twitter, YouTube y WhatsApp tienen parte de la responsabilidad, constituye un ejercicio vital para nosotros y para nuestros hijos profundizar en el aprendizaje y detección de las noticias falsas. Básicamente se trata de ejercer el pensamiento crítico y no difundir ni compartir noticias porque sí. Dicho esto, la actitud de las redes sociales hacia las noticias falsas es cada vez menos permisiva.

Unos meses atrás, importantes compañías, incluidas Amazon, Apple, Facebook, Google, Microsoft y Twitter, se reunieron con representantes del FBI y el Departamento de Seguridad Nacional de Estados Unidos para descubrir la mejor forma de combatir el inevitable diluvio de noticias falsas.

Según el periódico «The New York Times», los resultados no fueron los esperados por las mencionadas empresas: «Quienes asistieron describieron una atmósfera tensa en la que las compañías tecnológicas presionaron reiteradamente a los funcionarios federales para obtener información, solo para que se les dijera, repetidamente, que no se compartiría información específica. Uno de los asistentes a la reunión dijo que el encuentro llevó a las compañías tecnológicas a creer que estarían solas».

En términos internacionales, no es nada bueno. La ausencia de consecuencias hacia Rusia, por su injerencia en las pasadas elecciones, puede llevar a que se repitan actos similares ya sea por parte de la propia Rusia o de agentes de otros países.

¿Qué están haciendo las redes sociales para prevenir esto? Vamos por partes:

WHATSAPP

Esta es una de las redes donde las noticias falsas tienen más peligro. Se supone que conocemos a todos los que figuran entre nuestros contactos y eso hace que confiemos en los mensajes que recibimos. Pero muchas veces nos llegan mensajes que provienen de un contacto de un contacto, de fuentes que casi no son rastreables. Para luchar contra esto, WhatsApp ha publicado en periódicos de habla inglesa (por ahora solo en este idioma) una suerte de decálogo para que decidamos si los mensajes que recibimos son ciertos.

Allí se explica que la aplicación de mensajería pronto lanzará una nueva característica que permitirá a los usuarios ver qué mensajes se han copiado y reenviado, es decir, los que forman parte de una cadena cuyo origen no siempre puede detectarse. También sugiere, entre sus consejos, que los usuarios verifiquen los hechos cuando no estén seguros de quién escribió el mensaje original. «Si lee algo que le produce enfado o miedo, pregúntese primero si lo comparte para hacer sentir a los demás del mismo modo. Y si la respuesta es sí, piense dos veces antes de volver a compartirla».

WhatsApp también solicita a los usuarios que busquen mensajes que «se vean diferentes». Esto se refiere a aquellos que contengan fraudes (o noticias falsas), con errores ortográficos o una sintaxis extraña. La sugerencia apunta a que los usuarios se tomen un tiempo prudencial antes de compartir cualquier contenido. Por último, la aplicación de mensajería, propiedad de Facebook, intenta educar a los usuarios sobre por qué siempre deben consultar otras fuentes para ver si la historia se informa en otro lugar antes de compartirla con otros.

TWITTER

A principios de este año, Twitter no empezó con buen pie. En una aparición ante los legisladores británicos, su director de política publica, Nick Pickles, aseguró: «No somos los árbitros de la verdad. No vamos a eliminar el contenido en base al hecho de que esto no es cierto. La única fortaleza que tiene Twitter es que es allí hay cientos de periodistas, ciudadanos y activistas que corrigen el registro y corrigen la información». Afortunadamente las cosas han cambiado y gracias a una armada de personas y a un sistema de inteligencia artificial, Twitter se toma en serio la lucha contra la desinformación y las noticias falsas. En apenas dos meses, desde mayo, Twitter ha eliminado alrededor de 70 millones de cuentas falsas y de acuerdo con un informe de «The Washington Post», el ritmo de suspensión ha continuado en julio con «más de un millón» de cuentas por día. Del Harvey, vicepresidenta de Confianza y Seguridad en Twitter, señaló que la compañía solo recientemente «pudo dedicar los recursos y desarrollar las capacidades técnicas para atacar el comportamiento malicioso». También afirmó que Twitter está haciendo cambios en la forma en que fomenta la libertad, al mismo tiempo que garantiza la seguridad. Además, agregó que «la libertad de expresión en realidad no significa mucho si las personas no se sienten seguras».

Youtube

Youtube, por ejemplo, anunció ayer en su blog que invertirá más de 20 millones de euros en su lucha contra la propagación de noticias falsas: «Después de un evento de última hora, lleva tiempo verificar, producir y publicar vídeos de alta calidad. Es por eso que en las próximas semanas en los EE. UU. comenzaremos a proporcionar una breve vista previa de los artículos de noticias en los resultados de búsqueda en YouTube que enlazan con el artículo completo durante las horas iniciales de un evento importante. Al mismo tiempo se publicará un recordatorio de que la actualidad cambia rápidamente, especialmente en coberturas urgentes y de última hora».

También aseguraron que agregarán contexto a las noticias publicadas para dar mayor veracidad al contenido. Si bien es un paso importante, los responsables de YouTube son conscientes de que queda «mucho trabajo por hacer».

FACEBOOK

Recientemente, la red social creada por Mark Zuckerberg ha comprado la firma de Inteligencia Artificial, Bloomsbury AI. Especializada en análisis del lenguaje, el sistema detecta errores ortográficos, busca relaciones fiables y establece conexiones entre diferentes documentos. Con toda esta información, la IA desarrollado por Bloomsbury, conocida como Cape, puede detectar, en menos tiempo, textos que no son fiables y alertar a los moderadores sobre ello.

En su incesante lucha contra las noticias falsas, Facebook anunció además la creación de un centro operativo internacional en Barcelona para combatirlas. Estará ubicado en la Torre Glòries y desde allí unas 500 personas se encargarán de borrar contenido inapropiado en la red. De hecho, esta empresa ya cuenta con otro centro de control de contenidos, similar al que se creará en la capital catalana, en la ciudad alemana de Essen.

En esas oficinas también trabajan unos 500 trabajadores, que se encargan de borrar mensajes, fotos y vídeos que violan las normas de la red social. A nivel global, se denuncian más de 6 millones de contenidos cada semana, que son revisados por estos empleados.

La compañía está buscando ahora candidatos para las oficinas de Barcelona. Busca desde responsables de calidad, recursos humanos y operaciones hasta «community managers» con varios idiomas. Las ofertas para ellos (entendidos como moderadores de contenidos) aclaran que se encargarán de «examinar y revisar el contenido de las redes sociales de acuerdo con las normas de uso» e «investigar, prevenir y resolver los desafíos relacionados con las cuentas».

Además de estas recomendaciones, la empresa de capitanea Zuckerberg avisa de que «los contenidos pueden contener imágenes gráficas y contenidos ofensivos».