Este não é um problema exclusivo da plataforma do Google, neste caso do Gemini, sendo conhecida em muitos outros sistemas de inteligência artificial, reconhecida pelos responsáveis e gestores dos sistemas, que alertam para essa possibilidade, reconhecendo os perigos inerentes à sua utilização, sobretudo quando envolvem questões críticas, como a saúde ou o direito.
No entanto, resultados errados em forma de texto, mesmo que absurdos, tendem a ter um menor impacto do que o resultante de imagens, que, podendo ser, efectivamente muito mais inofensivas, surgem como mais ofensivas, no limite insultuosas, e levam a reacções que, face a erros ainda mais grosseiros em forma de texto, nunca se verificam, situação que é, efectivamente, alarmante.
Nestes erros inclui-se factualidade, com as plataformas a substituir factos reais por outros, inventados mas, na sua maioria, plausíveis, do que resultam construções consistentes, internamente coerentes, mas irreais, que podem ser facilmente assimiladas por quem não proceda a uma verificação dos factos recorrendo a outros meios, como uma pesquisa directa, algo que começa a surgir como opção complementar em vários mecanismos.
Sabendo que, na maioria dos casos, as verificações não são efectuadas, nem sequer tentadas, serão muitos aqueles que irão aceitar factos alternativos como verdadeiros, com a disseminação a tender a resultar numa quase validação, dando origem a uma realidade alternativa, com possibilidade de alastrar, como resultado da interacção e complementaridade entre histórias inventadas, dificultando significativamente a identificação dos factos como realmente aconteceram.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário