Do G1- Uma decisão liminar da 7ª Vara Cível de Bauru (SP) determinou que a ferramenta de buscas na internet da Microsoft, que utiliza inteligência artificial, retire do ar informações inverídicas sobre acusação de assédio sexual contra um médico da cidade.
Segundo Jayter Cortez Junior, juiz responsável pela decisão, o autor da ação, na verdade, investiga por meio do Conselho Regional de Medicina (CRM) o suposto caso de assédio sexual em tese praticado por outro profissional.
A advogada Gisele Moreno, que representa o médico, disse que apesar de seu cliente estar apurando a denúncias em relação a outro profissional no âmbito administrativo de sua atuação, o médico descobriu que a ferramenta apresentava essas falsas informações sobre ele por acaso.
"O uso da ferramenta foi por pura curiosidade para ver o que a ferramenta respondia com o uso de uma pessoa comum qualquer que se interessa por ver quais são as respostas que essa ferramenta oferece e ele se deparou com essa situação chocante e estarrecedora", afirma.
Ainda de acordo com advogada, o objetivo maior da ação é que essas informações sejam realmente retiradas do ar pelo prejuízo que causam.
"São inverdades que se não forem rapidamente retiradas do ar causam prejuízos irreparáveis para um profissional que está há três décadas atuando de uma forma extremamente correta. Uma carreira impecável, construída não só no âmbito técnico da medicina, mas também ético. Uma situação extremamente desabonadora e gravíssima."
"(In) inteligência artificial"
A decisão da Justiça, expedida no dia 15 de junho, dá 48 horas para a remoção das informações distorcidas contra o médico de Bauru, sob pena de multa diária no valor de R$ 5 mil, até o limite de R$ 250 mil.
Para o juiz, a demora na correção das informações representa risco para o médico, "pois se trata de grande plataforma de pesquisa e alcance mundial, utilizada em larga escala por usuários da internet para levantamento de informações e qualificação de profissionais".
"Alterando por completo a realidade fática, a ré apresenta em sua plataforma de pesquisa a informação inverídica de que o autor seria investigado por crimes de assédio sexual no seu ofício de médico, quando em realidade, na matéria jornalística reportada no resultado da pesquisa, a informação é de que atua na apuração de tais faltas à frente do CRM", completa.
O magistrado afirmou ainda que o serviço "está a apresentar dados falsos e graves que atentam contra a honra e dignidade do autor e que tem sido visualizados por terceiros, que inclusive o alertaram do ocorrido".
De acordo ainda com a decisão da Justiça, que é inédita na região, o erro está unicamente na ferramenta que se validou de reportagens jornalísticas com informações verídicas para construir um compilado de notícias falsas, o que levou o juiz, inclusive, usar o termo (in) inteligência artificial em seus argumentos.
"Aparentemente o site de pesquisa da ré não se limita a coletar e reproduzir, com fidedignidade, informações criadas por terceiro, para se cogitar de responsabilidade exclusiva destes, mas altera equivocadamente a informação lançada em matéria jornalística, em exercício de (in)inteligência artificial, atribuindo indevidamente ao autor fato criminoso praticado por terceiro e por ele investigado", completa.
Procurada, a assessoria de imprensa da Microsoft informou por meio de nota que não recebeu nenhuma intimação sobre o tema. Disse ainda que, "por política corporativa, não comentamos casos em andamento".