De entre os moitos perigos asociados ao uso da internet en xeral e das redes sociais en particular, os relacionados coa difusión de discursos de odio ou falsidades para inducir artificialmente estados de opinión parecían particularmente difíciles de atallar. As empresas responsables da publicación de contidos mostrábanse reticentes a exercer a moderación dos mesmos, polo menos no que respecta ás noticias falsas ou aos discursos radicais, por motivos atribuíbles á conveniencia: non só é necesaria un forte investimento para dispoñer da capacidade de facelo, senón que ademais esa moderación vai en contra do seu propio negocio, ao limitar a difusión duns contidos que se adoitan viralizar en nichos específicos.
A Unión Europea puxo en marcha, dentro do programa H2020, o proxecto AIDA, co obxectivo de utilizar técnicas de Intelixencia Artificial e Big Data para loitar contra o cibercrimen e o terrorismo. Así, a empresa de Intelixencia Artificial Expert.ai, no marco deste proxecto AIDA, pon ao dispor dos corpos e forzas de seguridade unha ferramenta que procesa e identifica a intención dos autores dos textos e a veracidade dos seus contidos. Deste xeito pódense supervisar de maneira automática as redes e localizar os contidos que respondan os perfís buscados.
Este sistema xa está a ser utilizado, en España pola Garda Civil, e a nivel internacional pola Interpol ou os corpos de policía de Grecia e Holanda.