IA erra e acusa médico de 100 assédios: 'Quase acabou com uma carreira'
- Bruno Augusto Santos Oliveira
- 23 de jun. de 2023
- 2 min de leitura
Abinoan Santiago
Colaboração para Tilt, em Florianópolis
22/06/2023

Um médico com quase 40 anos de carreira e sem qualquer denúncia no Cremesp (Conselho Regional de Medicina de São Paulo) de repente passou a ter seu nome associado a mais de 100 assédios sexuais por erro da IA (Inteligência Artificial) do Bing, buscador da Microsoft.
Desde março deste ano, a ferramenta de busca na internet da Microsoft passou a responder pedidos dos usuários por meio de um chat. Isso ocorreu após a integração com o ChatGPT, a IA da moda que é capaz de gerar conteúdo.
O profissional decidiu processar a empresa, que foi obrigada pela Justiça a retirar o conteúdo de seus resultados de busca. A decisão da 7ª Vara Cível de Bauru (SP) é muito provavelmente a primeira ação que responsabiliza uma empresa por erros provocados por IAs.
...
O que rolou
A descoberta do erro ocorreu neste ano, após o médico pesquisar seu nome no chatbot do Bing. A ferramenta da Microsoft usa como base a essência do chatGPT, desenvolvido pela empresa OpenAI, que fornece respostas automatizadas por IA simulando uma conversa humana. Os dados são gerados pelo próprio sistema a partir do índice de interesse do buscador, o ranqueamento de sites e resultados de pesquisa.
O profissional trabalhava como um dos responsáveis por apurar denúncias contra médicos no Cremesp. Em uma entrevista dada por ele em 2023, o médico falou que existiam mais de 100 investigações em São Paulo relacionadas a casos de assédio sexual: 33 (2011), 58 (2012) e 14 (2013).
A IA do Bing se baseou em parte dessas informações e errou. Ela equivocadamente entendeu que os números de denúncias citados pelo médico na matéria jornalística eram contra ele, e não os apurados contra outros profissionais.
Veja a matéria completa em: https://www.uol.com.br/tilt/noticias/redacao/2023/06/22/medico-acusado-assedio-erro-ia-bing-microsoft.htm




Comentários