O Google Glass será capaz de interpretar nossas emoções?

O Google Glass será capaz de interpretar nossas emoções?

Já imaginou poder utilizar um aparelho que possa reconhecer as emoções de quem estiver em seu campo de visão, sem que seja necessário qualquer esforço, em uma reunião ou durante a venda de algum produto? Talvez isto seja possível, segundo a empresa Google e a Emotient.

Muito já se especulou em torno da próxima grande promessa da gigante Google: o Google Glass.

Para quem nunca escutou falar de tal artefato, saibam que se trata de um acessório em forma de óculos que possibilita a interação dos usuários com diversos conteúdos em realidade aumentada. Também chamado de Project Glass, o eletrônico é capaz de tirar fotos a partir de comandos de voz, enviar mensagens instantâneas e realizar videoconferências. Atualmente (2014) o Google Glass encontra-se em fase de testes (foi distribuído para alguns pouco “sortudos”, que estão ajudando a aperfeiçoar o produto).

Vejam uma demonstração do acessório:

Seria então o Google Glass capaz de capturar as emoções humanas através das expressões faciais? A empresa Emotient aposta que sim.

Mas como funciona?

Com o  Emotient API, o Google Glass é capaz de capturar expressões em tempo real, “transformando” as expressões faciais em sentimentos “concretos”, através de métricas como positivo, negativo e neutro , no nível mais básico, e ainda, com a possibilidade de analisar sentimentos mais avançados, que incluem  alegria, surpresa , tristeza, medo, nojo , desprezo e raiva ; prometendo ainda detectar frustração e confusão.

google-glass-emotions

A API Emotient fornece a capacidade de executar em tempo real , quadro a quadro análise das respostas emocionais dos usuários, detecção de expressões das emoções primárias , tudo baseado em 19 Unidades de Ação faciais , que são movimentos musculares faciais elementares,  utilizando o sistema Facial Action Coding System – FACS (Dr. Ekman e Friesen).

O software da Emotient usa algoritmos avançados para reconhecer múltiplas faces em imagens estáticas e quadros de vídeo, inclusive com a capacidade de corrigir distorções do ambiente.

A grande proposta da junção deste API com os óculos é a capacidade de identificar humores e sentimentos através de expressões faciais e converter os dados em um relatório que pode ser usado pelos departamentos de marketing de produto, por exemplo. O desenvolvimento do API tem um especial direcionamento para empresas e organizações que dependem fortemente de satisfação dos clientes para obterem lucros, como os restaurantes e hotéis indústrias. Este aplicativo de análise de satisfação do cliente pode ser usado como uma ferramenta para auxiliar as empresas em táticas de marketing , bem como ser uma ferramenta para os consumidores que têm hesitações sobre produtos ou serviços de compra.

emotient-2

Quais as implicações em usar o Google Glass na identificação de emoções?


Então seremos todos capazes de conhecer a emoção (não tão) alheia?  Acredito que não.

Primeiramente, a tecnologia atual ainda não é capaz de reconhecer expressões sutis, ainda mais em ambientes com algum tipo de poluição (luminosidade, movimentos, etc).

Para conhecer mais sobre a interação entre os estudos das emoções e a tecnologia, recomendo a leitura do artigo “A tecnologia e as emoções“, aqui mesmo do portal.

Segundo, o acessório será capaz de interpretar apenas qual unidade de ação facial está presente na face de determinada pessoa naquele momento, ou seja, apenas reconhece uma expressão de alegria ou tristeza (por exemplo), o que em um contexto isolado  não quer dizer muita coisa, vejamos:

Computação e emoção

Existem sistemas experimentais de avaliação da satisfação de alunos que estudam remotamente, através da analise facial do aluno enquanto o mesmo executa determinada atividade, digamos então que em um dado momento o aluno mostrou-se irritado, no decorrer de um vídeo que assistia, logo o professor provavelmente vai concluir que o aluno não gostou do vídeo (por ser monótono ou de conteúdo desprezível por parte do aluno, apenas para citar algumas opções), entretanto, o que o professor não sabe, é que no momento da execução do vídeo, o aluno passou por problemas de ordem técnica (o vídeo travou, perdeu o áudio, etc), o que deixou o aluno de certa forma irritado.

Obviamente que o exemplo acima foi extremamente simplificado. Para entender melhor todo este funcionamento, recomendo a leitura de dois outros artigos aqui do portal: “Dedução e análise do comportamento” e “Estudo relaciona a mentira com movimento facial“, ambos de autoria do Dr. Sérgio Senna.

Após a leitura destes dois artigos, e a consequente ampliação do entendimento da relação entre a expressão facial e a emoção, você perceberá que o aplicativo não é “somente maravilha” como promete ser, pois na realidade o aplicativo apenas nos permite RECONHECER as emoções, o que na realidade é bem diferente e menos do que INTERPRETAR, ou seja, durante uma conversa possuímos a capacidade, não consciente, de contextualizar os indicadores de ação facial enquanto integramos outros tipos de informação percebidas pelos nossos sentidos. Sobre isso, recomendo a leitura do artigo: Ilusões Reias: cuidado com o que você observa.

Assim, não podemos negar o crescente avanço da tecnologia no campo de estudos das emoções, mas também não podemos confiar cegamente em um sistema (ao menos por enquanto, quem sabe no futuro?)

Até a próxima,

Edinaldo Oliveira


Visite as Seções do Portal:

 


Como citar este artigo:

Formato Documento Eletrônico (ABNT)

JUNIOR, Edinaldo Oliveira. O Google Glass será capaz de interpretar nossas emoções?. Instituto Brasileiro de Linguagem Corporal. Disponível em < https://ibralc.com.br/linguagem-corporal-google-glass/> . Acesso em 2 Dec 2016.

Formato Documento Eletrônico (APA)

Junior, Edinaldo Oliveira. (2014). O Google Glass será capaz de interpretar nossas emoções?. Instituto Brasileiro de Linguagem Corporal. Recuperado em 2 Dec 2016, de https://ibralc.com.br/linguagem-corporal-google-glass/.

The following two tabs change content below.

Edinaldo Oliveira

Graduado em ADMINISTRAÇÃO - GESTÃO DE NEGÓCIOS pela Faculdade de Filosofia Ciências e Letras de Caruaru/PE (2005) e Pós-Graduado em Engenharia de Software pela mesma faculdade, em 2010, além de graduado em Gestão da Tecnologia da Informação, pela ESTÁCIO, em 2014. Diletante do campo da psicologia, com foco no estudo da comunicação não verbal, especialmente no que se refere as expressões faciais, e como esta ferramenta pode ser aplicada em diversas áreas, a saber: segurança, defesa, educação, vendas, nas organizações e na saúde. Além disto, é amante da astronomia, astrofotografia e fotografia.
Posted in Curiosidades, News and tagged , , , .

Deixe uma resposta