La Fundación Thomson Reuters ha lanzado TRFilter una aplicación que permite a los periodistas cortar, documentar y administrar el acoso y el abuso en línea, para que puedan tomar el control de sus redes sociales y concentrarse en sus actividades profesionales. Es decir, la herramienta permite aumentar la capacidad de moderación de la propia cuenta de Twitter con funcionalidades que no existen fuera de esta nueva aplicación.
Aunque de momento se ha lanzado sólo en inglés, los modelos de aprendizaje automático que sustentan TRFilter pueden detectar contenido dañino en varios idiomas. La idea, en todo caso, es ampliar la herramienta para incluir más idiomas.
TRFilter se sincroniza con la cuenta de Twitter del usuario y utiliza tecnología de aprendizaje automático para identificar comentarios abusivos, ofrece puntuaciones de toxicidad y permite que el usuario tome medidas, silenciando o bloqueando cuentas a gran escala, sin revisar el contenido. Los usuarios tienen la posibilidad de mostrar los comentarios si lo desean.
Dentro de TRFilter también existe la opción de crear registros de acoso y descargar un informe, para compartir con terceros. Los usuarios pueden elegir que el informe incluya todo el contenido abusivo y las cuentas que la herramienta ha identificado como dañinas, o personalizar su selección.
Las cuentas que están realizando acoso a los periodistas no sabrán que han aparecido en un informe y ningún tercero, incluida la Fundación Thomson Reuters, Twitter y Jigsaw, accederán al informe generado en la herramienta. Los borradores de informes se almacenan temporalmente en la herramienta. Una vez descargado o abandonado, el informe se eliminará de TRFilter.
La herramienta está basada en Harassment Manager, de Google. Emplea la API Perspective de Jigsaw que permite a los usuarios clasificar los comentarios potencialmente abusivos en las plataformas de redes sociales.