É de notar que a União Europeia já anunciou que pretende efectuar uma análise semelhante nas mensagens, de forma automática, baseada em inteligência artificial, capaz de detectar crimes sexuais que envolvam crianças, estabelecendo que tal será da responsabilidade das plataformas de comunicações, pelo que não se está, efectivamente, diante de algo completamente novo.
No entanto, este tipo de análise automática, feita por máquinas, tem como consequências habituais um elevado número de falsos positivos, que irão necessitar de uma segunda análise, por parte de operadores humanos, sempre subjectiva, enquando os suspeitos podem ver a sua vida devassada como resultados de uma interpretação deficiente que pode ou não fazer fé para que se efectue uma posterior investigação.
Ao abrir esta porta, também se abre outra, a nível da segurança, podendo expor conversas encriptadas ponta a ponta, teoricamente seguras, que ficam assim vulneráveis num dos extremos, ou seja, no dispositivo, com dados a poderem ser enviados para um sistema, o que compromete a inviolabilidade da encriptação anunciada e que, supostamente, materá a segurança e privacidade dos utilizadores.
Tal pode ter um efeito colateral em diversas plataformas, como o Whatsapp, o Signal ou o Telegram, que implementam funcionalidades a nível de encriptação, garantindo segurança e privacidade, e que, nesta perspectiva, podem perder as suas principais valências, tornando-se inúteis e dispensáveis, do que facilmente decorrer a insustentabilidade financeiras das empresas que desenvolvem este tipo de solução.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário