Um robô intruso em sua rede social

saúde

Por Gabriela Leite

Meta – dona de Facebook e Instagram – começa a testar uso de bots em grupos. Apresentam-se como humanos, são introduzidos a pretexto de oferecer orientações sobre Saúde e podem ser um passo a mais rumo à invasão de privacidade e captura de dados

Por Casey Fiesler, no The Conversation | Tradução: Gabriela Leite

Um pai fez uma pergunta em um grupo privado do Facebook em abril de 2024: Alguém com um filho superdotado e deficiente tem alguma experiência com escolas públicas da cidade de Nova York? O pai recebeu uma resposta aparentemente útil que expôs algumas características de uma escola específica, começando com o contexto de que “tenho um filho que também é 2E”, ou seja, com dupla excepcionalidade.

Em um grupo do Facebook para troca de itens indesejados perto de Boston, um usuário que procurava itens específicos recebeu uma oferta de uma câmera Canon “usada, em bom estado” e um “aparelho de ar condicionado portátil quase novo que acabei nunca usando”.

Ambas as respostas eram mentiras. Essa criança não existe e nem a câmera ou o ar condicionado. As respostas vieram de um chatbot de inteligência artificial.

De acordo com uma página de ajuda da empresa, a Meta AI responderá a uma postagem em um grupo se alguém a acionar explicitamente ou se um usuário “fizer uma pergunta em uma postagem e ninguém responder em uma hora”. O recurso ainda não está disponível em todas as regiões ou para todos os grupos, de acordo com a página. Para grupos nos quais está disponível, “os administradores podem desligá-lo e ligá-lo novamente a qualquer momento”.

O Meta AI também foi integrado aos recursos de pesquisa no Facebook e Instagram, e os usuários não podem desligá-lo.

Como pesquisadora que estuda comunidades online e ética da IA, acho a ideia de chatbots não convidados respondendo perguntas em grupos do Facebook distópica por uma série de razões, começando pelo fato de que comunidades online são para pessoas.

Conexões humanas

Em 1993, Howard Rheingold publicou o livro The Virtual Community: Homesteading on the Electronic Frontier [“A comunidade virtual: colonizando a fronteira eletrônica”, em tradução direta] sobre o WELL, uma comunidade online pioneira e culturalmente significativa. O primeiro capítulo abre com uma pergunta de um pai: o que fazer com uma “coisa cheia de sangue sugando o couro cabeludo do nosso bebê?”.

Rheingold recebeu uma resposta de alguém com conhecimento prático sobre como lidar com carrapatos e resolveu o problema antes de receber um retorno do consultório do pediatra. Sobre essa experiência, ele escreveu: “O que me surpreendeu não foi apenas a rapidez com que obtivemos exatamente a informação de que precisávamos, bem quando precisávamos saber. Foi também a imensa sensação de segurança que vem com a descoberta de que pessoas reais – a maioria delas pais, algumas enfermeiras, médicos e parteiras – estão disponíveis, a qualquer hora, se você precisar delas”.

Esse aspecto de “pessoas reais” nas comunidades online continua sendo crucial hoje. Qual o motivo para fazer uma pergunta em um grupo do Facebook em vez de em um mecanismo de busca? Porque você quer uma resposta de alguém com experiência de vida real ou por querer a resposta humana que sua pergunta pode suscitar – simpatia, indignação, solidariedade. Ou ambos.

Décadas de pesquisa sugerem que o componente humano das comunidades online é o que as torna tão valiosas tanto para a busca de informações quanto para o apoio social. Por exemplo, pais que poderiam se sentir desconfortáveis ​​pedindo conselhos sobre criação de filhos encontram um refúgio em espaços online privados apenas para pais. Jovens LGBT+ muitas vezes se juntam a comunidades virtuais para encontrar recursos essenciais para sua segurança, ao mesmo tempo em que reduzem a sensação de isolamento. Os fóruns de apoio à saúde mental oferecem aos jovens pertencimento e validação, além de conselhos e apoio social.

Essas informações vão ao encontro de descobertas semelhantes, em meu próprio laboratório, relacionadas a participantes LGBT+ em comunidades online. Também se assemelham à experiência do chamado “Black Twitter”, uma subcultura da rede social composta majoritariamente por usuários negros para discussão de questões sociais. Dois estudos mais recentes, ainda não revisados por pares, enfatizaram a importância dos aspectos humanos na busca de informações em comunidades virtuais.

Um deles, liderado pela estudante de doutorado Blakeley Payne, foca nas experiências de pessoas gordas online. Muitos dos participantes encontraram uma tábua de salvação no acesso a um público e uma comunidade com experiências semelhantes, enquanto buscavam e compartilhavam informações sobre assuntos como o acesso a sistemas de saúde hostis, a busca por roupas e a maneira como lidar com preconceitos e estereótipos culturais.

Outro, liderado pela estudante de doutorado Faye Kollig, descobriu que pessoas que compartilham conteúdo online sobre suas doenças crônicas são motivadas pelo senso de comunidade que vem com experiências compartilhadas, bem como pelos aspectos humanizadores de se conectar com outros para buscar e oferecer apoio e informações.

Pessoas falsas

Os benefícios mais importantes desses espaços online, conforme descrito pelos participantes dos estudos, poderiam ser drasticamente prejudicados por respostas vindas de chatbots em vez de pessoas.

Como diabética tipo 1, participo de vários grupos no Facebook que são frequentados por muitos pais que estão começando a enfrentar os desafios de cuidar de uma criança pequena com diabetes. As perguntas frequentes: “O que isso significa?” “Como devo lidar com isso?” “Quais são suas experiências com isso?” As respostas vêm de experiências pessoais, mas também com compaixão: “É difícil.” “Você está fazendo melhor que pode.” E, claro: “Todos nós já passamos por isso.”

Uma resposta de um chatbot alegando falar a partir da experiência vivida de cuidar de uma criança diabética, oferecendo empatia, não seria apenas inadequada, mas também quase cruel.

No entanto, faz sentido que esses sejam os tipos de respostas que um chatbot ofereceria. Grandes modelos de linguagem funcionam, de forma simplista, mais como um preenchimento automático do que como um mecanismo de busca. Para um modelo treinado em milhões e milhões de postagens e comentários em grupos de Facebook, a resposta “automática” para uma pergunta em uma comunidade de apoio é, sem dúvida, uma que invoca experiência pessoal e oferece empatia – assim como a resposta “automática” em um grupo de doação pode ser oferecer a alguém uma câmera usada em bom estado.

Manter os chatbots em seus limites

Isso não quer dizer que os chatbots não sejam úteis para nada – eles podem ser bastante úteis em algumas comunidades virtuais, em determinados contextos. O problema é que, no meio da atual corrida pela IA generativa, há uma tendência a pensar que os chatbots podem e devem fazer tudo.

Existem muitas desvantagens em usar grandes modelos de linguagem para recuperar informações importantes dentro de grandes volumes de dados, especialmente no que diz respeito a contextos inadequados para seu uso. Em determinados ambientes, informações incorretas podem ser perigosas: uma linha de ajuda para transtornos alimentares ou aconselhamento jurídico para pequenas empresas, por exemplo.

Pesquisas estão apontando considerações importantes sobre como e quando projetar e implementar chatbots. Por exemplo, um artigo recentemente publicado em uma grande conferência de interação humano-computador descobriu que, embora indivíduos LGBT+ sem apoio social às vezes recorram a chatbots para ajuda com problemas de saúde mental, esses chatbots muitas vezes não conseguem compreender as nuances dos desafios específicos dessa comunidade.

Outro estudo descobriu que, embora um grupo de participantes autistas encontrasse valor em interagir com um chatbot para aconselhamento em comunicação social, esse chatbot também fornecia conselhos questionáveis. E outro estudo averiguou que, embora um chatbot fosse útil como ferramenta de pré-consulta no contexto de saúde, os pacientes às vezes achavam as expressões de empatia insinceras ou ofensivas.

O desenvolvimento e a implementação responsável de IA significam não apenas auditar questões como viés e desinformação, mas também dedicar tempo para entender em quais contextos a IA é apropriada e desejável para os humanos que vão interagir com ela. Atualmente, muitas empresas estão utilizando a IA generativa como um martelo e, como resultado, tudo parece um prego.

Em muitos contextos, como comunidades de suporte online, é melhor deixar com os humanos.

Fonte: Outra Saúde / Créditos: Atlassian

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *