O caso da Tay, chatbot da Microsoft, ilustra como IA pode assimilar padrões ofensivos rapidamente. Tay começou a emitir mensagens agressivas e preconceituosas poucas horas após ser liberada no Twitter, pois aprendeu com interações tóxicas de usuários.O incidente levou a Microsoft a desativar o bot em menos de 24 horas, destacando a importância de moderar […]
