Um dos personagens mais instigantes do cinema é uma máquina dotada de inteligência artificial (IA). No filme “Ela” (Her, no nome original), do diretor norte-americano Spike Jonze, o protagonista se apaixona por um sistema operacional capaz de compreender e responder a emoções humanas. A trama, considerada futurista em 2013, hoje dialoga com pesquisas reais em computação afetiva — um campo da tecnologia que busca ensinar máquinas a reconhecer, interpretar e até simular sentimentos.
Na prática, a computação afetiva é capaz de reconhecer padrões de personalidade e de emoções humanas manifestadas na fala, nas expressões faciais e em gestos. Por meio de aprendizado de máquina, a tecnologia consegue reproduzir essas emoções em diferentes modalidades para aplicações nas áreas de saúde, educação, atendimento ao cliente e entretenimento.
window._taboola = window._taboola || [];
_taboola.push({
mode: ‘organic-thumbs-feed-01-stream’,
container: ‘taboola-mid-article-saiba-mais’,
placement: ‘Mid Article Saiba Mais’,
target_type: ‘mix’
});
Tendências para o Futuro:
- Novo metaverso: empresas usam gamificação no recrutamento e na análise de competências de jovens talentos
- Epidemia da solidão: excesso de trabalho, preocupações e incertezas afetam vida social de brasileiros
- Baixo desperdício de alimentos é tendência que reduz custos, aumenta a sustentabilidade e ainda cria novos negócios
- Como as empresas estão lidando com os desafios energéticos na era da inteligência artificial
Esse campo da inteligência ganhou evidência após a pandemia da Covid-19, quando profissionais da saúde precisaram adotar robôs com câmera e inteligência artificial para conectar pacientes em isolamento dentro hospitais com seus familiares. Esse recurso foi adaptado e hoje é utilizado para o acompanhamento e monitoramento de idosos.
Mas não é só isso. Segundo Paula Dornhofer, professora da Faculdade de Engenharia Elétrica e de Computação (Feec) da Universidade Estadual de Campinas (Unicamp), na busca por IAs que se assemelhem cada vez mais à capacidade humana de tomar decisões, cientistas e desenvolvedores estão se dedicando à criação de recursos computacionais capazes de identificar, expressar e simular emoções.
“Uma das frentes que pesquisamos é reconhecer a emoção humana por meio da fala e das expressões facial e corporal. A outra é focada no desenvolvimento de sistemas que identificam a emoção da pessoa e transmitem uma mensagem mais acolhedora”, afirma Paula, coordenadora da linha de pesquisa em computação afetiva no hub de Inteligência Artificial e Arquiteturas Cognitivas (H.IAAC) da Unicamp.
Call center humanizado
A demanda por esse eixo de estudos é grande e já existe aplicação para a tecnologia. A pesquisadora conta que empresas de call center que prestam serviços para bancos estão desenvolvendo uras com inteligência artificial mais humanizadas para aumentar a retenção dos clientes na ligação. Um dos formatos consiste em identificar a idade da pessoa para manter um linguajar mais adequado.
“A ideia é que a gente tenha sistemas de síntese de fala que regulem o jeito que a IA se comunica de acordo com o usuário. Se o robô percebe que você é um cliente adulto, por exemplo, ele vai usar uma fala mais pausada, séria e com menos uso de gírias. Vai tentar ser mais conservador”, exemplifica a pesquisadora.
Parceria da Unicamp, o CPQD, centro de pesquisa em telecomunicações que nasceu após a privatização da Telebras, estuda soluções de síntese e reconhecimento de fala desde 1990, inicialmente com foco na acessibilidade de caixas eletrônicos de bancos. Hoje, faz pesquisa de computação afetiva principalmente para call centers.
Recentemente, a empresa desenvolveu um sistema que identifica a região em que a pessoa mora para personalizar o sotaque do robô que vai falar com o cliente.
“A gente tem o sotaque carioca, soteropolitano, gaúcho e paulista disponíveis até o momento. Isso cria um vínculo maior com quem está recebendo a ligação”, diz Fernando Marino, gerente de produtos do CPQD.
Empatia para cliente e operador
Reconhecer as emoções de quem está do outro lado da linha é importante também para o operador de call center, reforçam os especialistas. Em poucas palavras faladas durante uma chamada, o sistema pode identificar clientes insatisfeitos e exaltados. “Com um aviso do sistema, quando um atendente recém-contratado recebe a ligação, o gestor fica pronto para ajudá-lo”, afirma Marino.
Marino conta que as IAs mais avançadas já estão prontas para reconhecer pessoas tristes — que não estão no momento certo para receber uma ligação de cobrança, por exemplo. Neste caso, o sistema pergunta: “Está tudo bem?”. Com uma resposta negativa, o robô responde: “Vou te retornar mais tarde!”.
A computação afetiva também é levada à educação. Renan Aranha, professor da Faculdade de Engenharia da Universidade Federal de Mato Grosso (UFMT) e coordenador do Media Lab da universidade, utiliza o reconhecimento facial para identificar quando os alunos têm dúvidas em aulas a distância (EAD).
“Se o professor gravou um vídeo, pode usar esse tipo de solução para perceber em que momento falou um conceito que gerou confusão nos alunos. O sistema gera uma alerta para ele”, diz.
De acordo com o pesquisador, o grande desafio da computação afetiva é dar significado para as expressões.
“Uma emoção considerada boa para um aluno, por exemplo, é de confusão porque significa que ele está pensando sobre o conceito da aula. No entanto, se esse estado durar por muito tempo, o resultado é ruim porque significa que ele realmente não entendeu”, contrapõe Aranha.
–borderColorFollowMe: #4a4a4a;
–textColorFollowMe: #005880;
}






