Período
01/05/2025Status
AbertoNota máxima
100,00%Data Final
valendo 100% da notaFinalizado
NãoNota obtida
100%Data Gabarito/ Feedback
a definirData e Hora Atual
Horário de BrasíliaFinalizado em
31/12/2030O caso da Tay, chatbot da Microsoft, ilustra como IA pode assimilar padrões ofensivos rapidamente. Tay começou a emitir mensagens agressivas e preconceituosas poucas horas após ser liberada no Twitter, pois aprendeu com interações tóxicas de usuários.O incidente levou a Microsoft a desativar o bot em menos de 24 horas, destacando a importância de moderar conteúdos e supervisionar o aprendizado de sistemas de IA.
Fonte: https://journals-sol.sbc.org.br/index.php/comp-br/article/view/1791. Acesso em: 31 jul. 2025.
Com base no texto sobre o chatbot Tay, assinale a alternativa correta que indica a principal razão para a rápida deterioração de seu comportamento:
ALTERNATIVAS
O chatbot foi infectado por vírus logo após o lançamento.
O chatbot funcionava off-line, sem atualizar seu modelo com novos dados.
O chatbot usava filtros automáticos que bloqueavam mensagens positivas. O chatbot recebeu comandos diretos dos engenheiros para insultar os usuários.
A aprendizagem do chatbot ocorreu a partir dos padrões de discurso ofensivo dos usuários do Twitter.
Mapas Relacionados