O Google Glass será capaz de interpretar nossas emoções?

Divulgue e opinie
Leitura: 5 min.

Google Glass – Já imaginou poder utilizar um aparelho que possa reconhecer as emoções de quem estiver em seu campo de visão, sem que seja necessário qualquer esforço, em uma reunião ou durante a venda de algum produto? Talvez isto seja possível, segundo a empresa Google e a Emotient.

Muito já se especulou em torno da próxima grande promessa da gigante Google: o Google Glass.

Para quem nunca escutou falar de tal artefato, saibam que se trata de um acessório em forma de óculos que possibilita a interação dos usuários com diversos conteúdos em realidade aumentada. Também chamado de Project Glass, o eletrônico é capaz de tirar fotos a partir de comandos de voz, enviar mensagens instantâneas e realizar videoconferências. Atualmente (2014) o Google Glass encontra-se em fase de testes (foi distribuído para alguns pouco “sortudos”, que estão ajudando a aperfeiçoar o produto).

Vejam uma demonstração do acessório:

Seria então o Google Glass capaz de capturar as emoções humanas através das expressões faciais? A empresa Emotient aposta que sim.

O Google Glass será capaz de interpretar nossas emoções?

Com o Emotient API, o Google Glass é capaz de capturar expressões em tempo real, “transformando” as expressões faciais em sentimentos “concretos”, através de métricas como positivo, negativo e neutro, no nível mais básico, e ainda, com a possibilidade de analisar sentimentos mais avançados, que incluem: alegria, surpresa, tristeza, medo, nojo, desprezo e raiva; prometendo ainda detectar frustração e confusão.

google-glass-emotions

A API Emotient fornece a capacidade de executar em tempo real, quadro a quadro, análise das respostas emocionais dos usuários, detecção de expressões das emoções primárias, tudo baseado em 19 Unidades de Ação faciais, que são movimentos musculares faciais elementares,  utilizando o sistema Facial Action Coding System – FACS (Dr. Ekman e Friesen).

O software da Emotient usa algoritmos avançados para reconhecer múltiplas faces em imagens estáticas e quadros de vídeo, inclusive com a capacidade de corrigir distorções do ambiente.

A grande proposta da junção deste API com os óculos é a capacidade de identificar humores e sentimentos por meio de expressões faciais e converter os dados em um relatório que pode ser usado pelos departamentos de marketing de produto, por exemplo.

O desenvolvimento do API tem um especial direcionamento para empresas e organizações que dependem fortemente de satisfação dos clientes para obterem lucros, como os restaurantes e hotéis indústrias. 

Este aplicativo de análise de satisfação do cliente pode ser usado como uma ferramenta para auxiliar as empresas em táticas de marketing, bem como ser uma ferramenta para os consumidores que têm hesitações sobre produtos ou serviços de compra.

emotient-2

Quais as implicações em usar o Google Glass na identificação de emoções?

Então seremos todos capazes de conhecer a emoção (não tão) alheia?  Acredito que não.

Primeiramente, a tecnologia atual ainda não é capaz de reconhecer expressões sutis, ainda mais em ambientes com algum tipo de poluição (luminosidade, movimentos, etc).

Para conhecer mais sobre a interação entre os estudos das emoções e a tecnologia, recomendo a leitura do artigo “A tecnologia e as emoções“, aqui mesmo do portal.

Segundo, o acessório será capaz de interpretar apenas qual unidade de ação facial está presente na face de determinada pessoa naquele momento, ou seja, apenas reconhece uma expressão de alegria ou tristeza (por exemplo), o que em um contexto isolado não quer dizer muita coisa, vejamos:

Computação e emoção

Existem sistemas experimentais de avaliação da satisfação de alunos que estudam remotamente. Isso é realizado por meio da análise facial do aluno enquanto o mesmo executa determinada atividade.

♦ EXEMPLO

Digamos então que em um dado momento o aluno mostrou-se irritado, no decorrer de um vídeo que assistia, logo o professor provavelmente vai concluir que o aluno não gostou do vídeo (por ser monótono ou de conteúdo desprezível por parte do aluno, apenas para citar algumas opções).

Entretanto, o que o professor não sabe, é que no momento da execução do vídeo, o aluno passou por problemas de ordem técnica (o vídeo travou, perdeu o áudio, etc), o que deixou o aluno de certa forma irritado.

Obviamente, que o exemplo acima foi extremamente simplificado. Para uma compreensão mais ampla deste funcionamento, recomendo aprofundar o seu estudo a partir do nosso conteúdo sobre emoções e linguagem corporal:

Introdução à linguagem corporal | Comunicando sem palavras

Educação, linguagem corporal e emoções

Após a leitura destes dois artigos, e a consequente ampliação do entendimento da relação entre a expressão facial e a emoção, você perceberá que o aplicativo não é “somente maravilha” como promete.

Quais são as possibilidades do Google Glass no reconhecimento de emoções?

O Google Glass, com seu potencial de captura de imagem e processamento de dados em tempo real, oferece várias possibilidades no campo do reconhecimento de emoções.

A seguir, algumas das maneiras pelas quais o dispositivo pode ser utilizado para identificar e interpretar as emoções das pessoas:

  1. Reconhecimento Facial Emocional: O Google Glass pode utilizar câmeras embutidas para analisar as expressões faciais das pessoas em tempo real. Algoritmos de visão computacional podem ser empregados para detectar pistas visuais que indicam emoções, como sorrisos, lágrimas, franzir de sobrancelhas e outras expressões faciais.

  2. Feedback em Interações Sociais: Ao reconhecer as emoções de interlocutores em uma conversa, o Google Glass pode fornecer feedback em tempo real para ajudar as pessoas a melhorar suas habilidades de comunicação. Isso pode ser especialmente útil em situações como treinamento de atendimento ao cliente, coaching de entrevistas de emprego e interações sociais em geral.

  3. Assistência em Terapia e Saúde Mental: O Glass pode ser uma ferramenta valiosa para profissionais de saúde mental. Ele pode ajudar terapeutas a monitorar e interpretar as emoções de seus pacientes, rastreando mudanças de humor e fornecendo informações úteis para tratamento.

  4. Reconhecimento de Emoções em Aplicativos de Entretenimento: O Google Glass pode melhorar a experiência do usuário em aplicativos de entretenimento, como jogos ou programas interativos, adaptando o conteúdo de acordo com as emoções do usuário. Por exemplo, um jogo poderia aumentar ou diminuir a dificuldade com base na expressão facial do jogador.

  5. Acessibilidade: Para pessoas com dificuldades de comunicação, como autismo, o Glass poderia ajudar na interpretação de emoções alheias, fornecendo pistas visuais ou informações sobre o estado emocional de uma pessoa durante uma interação.

  6. Segurança e Bem-Estar no Trânsito: O reconhecimento de emoções pode ser útil para motoristas, identificando fadiga, distração ou estresse e oferecendo alertas para manter a segurança no trânsito.

  7. Pesquisa de Mercado e Publicidade Direcionada: Empresas podem usar o Google Glass para coletar dados sobre as reações emocionais dos consumidores a produtos ou anúncios, ajudando a refinar estratégias de marketing e desenvolver produtos mais adequados.

  8. Treinamento e Simulações em Setores de Alto Estresse: Em setores como serviços de emergência e forças armadas, pode ser usado para treinar pessoal em situações de alto estresse, avaliando suas reações emocionais e tomando medidas para melhorar o desempenho sob pressão.

Emoções e as limitações do Google Glass

A dura realidade é que o aplicativo apenas nos permite RECONHECER as emoções, o que é bem diferente e muito menos do que INTERPRETAR.

♦ IMPORTANTE

Durante uma conversa possuímos a capacidade, não-consciente, de contextualizar os indicadores de ação facial enquanto integramos outros tipos de informação percebidas pelos nossos sentidos.

Sobre isso, recomendo a leitura do artigo: Ilusões Reias: cuidado com o que você observa.

Assim, não podemos negar o crescente avanço da tecnologia no campo de estudos das emoções, mas também não podemos confiar cegamente em um sistema (ao menos por enquanto, quem sabe no futuro?)

Clique para ver questões relacionadas com o Google Glass e a privacidade

O uso do reconhecimento de emoções com o Google Glass levanta importantes questões legais e de privacidade que precisam ser cuidadosamente consideradas.

A coleta e análise de dados pessoais, incluindo informações sobre as emoções das pessoas, podem entrar em conflito com as regulamentações de proteção de dados, como o Regulamento Geral de Proteção de Dados (GDPR) na União Europeia e a nossa lei brasileira de proteção de dados.

Para mitigar preocupações de privacidade, é essencial obter o consentimento informado das pessoas antes de utilizar essa tecnologia. Além disso, é importante garantir a segurança dos dados emocionais coletados e aderir a práticas de retenção e compartilhamento responsáveis.

A transparência e a ética devem ser a base de qualquer aplicação que envolva o reconhecimento de emoções, garantindo que os direitos e a privacidade das pessoas sejam respeitados.

Entretanto, sabemos que há pessoas que não prestarão atença a isso: Leia: Aptos para serem antiéticos: a psicopatia funcional

Receba nossa Newsletter

Toda terça-feira, um tópico sobre educação socioemocional, linguagem corporal e emoções.

Opine sobre isso!