Tenho grandes dúvidas da eficácia desta solução, chamadas de emergência são algo com o qual não se brinca. Ainda assim, mantenho algum positivismo e espero que realmente seja uma ferramenta útil no alívio da sobrecarga deste serviço público muito importante.
Assumindo que vai ser algo contratado por fora, vais ter queries nao anonimizadas para o servidor deles… Eticamente nao me parece correto, nem sei se vai ser aceite pelo tribunal constitucional.
Mas nao li a noticia, so o titulo mesmo, por isso pozso estar a dizer asneiras
The artificial intelligence tool, named Tessa, was presented by the National Eating Disorders Association as a way to discover coping skills. But activists say it instead veered into problematic weight-loss advice.
Tenho grandes dúvidas da eficácia desta solução, chamadas de emergência são algo com o qual não se brinca. Ainda assim, mantenho algum positivismo e espero que realmente seja uma ferramenta útil no alívio da sobrecarga deste serviço público muito importante.
O meu maior problema é a privacidade … Para onde vao viver as conversas com a AI ?
O mais certo é serem anonimizadas e usadas para treinar novas IAs.
Assumindo que vai ser algo contratado por fora, vais ter queries nao anonimizadas para o servidor deles… Eticamente nao me parece correto, nem sei se vai ser aceite pelo tribunal constitucional.
Mas nao li a noticia, so o titulo mesmo, por isso pozso estar a dizer asneiras
Vou fazer um teste a ver como corre, depois reporto.
Só a partir de 2025! :P
https://lemmy.pt/comment/325187
Também ia dizer que era uma péssima ideia, até ver que só seria usado em momentos de sobrecarga.
Lembrei-me desta noticia: https://www.nytimes.com/2023/06/08/us/ai-chatbot-tessa-eating-disorders-association.html (também acessível aqui: https://web.archive.org/web/20230615113514/https://www.nytimes.com/2023/06/08/us/ai-chatbot-tessa-eating-disorders-association.html/) («A Wellness Chatbot Is Offline After Its ‘Harmful’ Focus on Weight Loss»)