Tecnologia de IA deteta emoções em animais com 89% de precisão utilizando análise de som

A tecnologia de IA deteta emoções em animais com 90% de precisão utilizando análise de som.

Os investigadores desenvolveram um sistema de IA que detecta estados emocionais em animais com uma precisão sem precedentes, oferecendo novas possibilidades para o bem-estar e a conservação.
Os investigadores desenvolveram um sistema de IA que deteta estados emocionais em animais com uma precisão sem precedentes, oferecendo novas possibilidades para o bem-estar e a conservação.
Lee Bell
Lee Bell Meteored Reino Unido 4 min

Os cientistas utilizaram a inteligência artificial (IA) para decifrar o código das expressões vocais dos animais - uma descoberta que se espera venha a abrir novas possibilidades para melhorar o bem-estar e a conservação dos animais.

A investigação, conduzida pela Universidade de Copenhaga, revelou que a IA pode detetar estados emocionais em animais com base nas suas vocalizações e, além disso, oferece uma impressionante taxa de precisão de 89,49%.

Melhor ainda, pensa-se que o desenvolvimento poderá levar à monitorização em tempo real das emoções dos animais, ajudando os agricultores, veterinários e conservacionistas a responder ao sofrimento ou a promover o bem-estar.

Padrões universais nas emoções dos animais

Ao analisar milhares de vocalizações de sete espécies diferentes de ungulados (mamíferos com cascos), os investigadores responsáveis pelo estudo identificaram padrões acústicos fundamentais ligados a estados emocionais. O modelo de IA descobriu que as alterações na duração, na distribuição de energia, na frequência fundamental e na modulação da amplitude eram as formas mais fiáveis de saber se um animal estava a sentir uma emoção positiva ou negativa.

“Esta descoberta fornece provas sólidas de que a IA pode descodificar emoções em várias espécies com base em padrões vocais”, afirmou a Professora Associada da Universidade de Copenhaga e principal autora do estudo, Élodie F. Briefer. “Tem o potencial de revolucionar o bem-estar dos animais, a gestão do gado e a conservação, permitindo-nos monitorizar as emoções dos animais em tempo real.”

Os cientistas descobriram padrões universais nas vocalizações dos animais, revelando como a IA pode interpretar emoções em várias espécies com uma precisão notável
Os cientistas descobriram padrões universais nas vocalizações dos animais, revelando como a IA pode interpretar emoções em várias espécies com uma precisão notável.

Além disso, estes sinais vocais são consistentes em todas as espécies, afirmaram os cientistas, sugerindo que alguns aspetos da expressão emocional foram evolutivamente conservados.

Transformar o bem-estar dos animais

Os investigadores acreditam que as suas descobertas podem ser um fator de mudança para o bem-estar dos animais. Ao incorporar a deteção de emoções baseada em IA na criação de gado, por exemplo, pensa-se que os agricultores e veterinários poderão intervir antes que o stress ou o desconforto se transformem em problemas de saúde graves. E na conservação, espera-se que a monitorização dos estados emocionais dos animais selvagens possa melhorar os esforços de reintrodução e evitar stress desnecessário em cativeiro.

“Compreender como os animais expressam as suas emoções pode ajudar-nos a melhorar o seu bem-estar”, explicou Briefer. “Se conseguirmos detetar precocemente o stress ou o desconforto, podemos intervir antes que se agravem.

"Igualmente importante, poderíamos também promover emoções positivas. Isto seria um fator de mudança para o bem-estar dos animais”.

Para acelerar a investigação, a equipa também disponibilizou publicamente o seu conjunto de dados sobre as vocalizações dos animais, acrescentou Briefer.

“Queremos que isto seja um recurso para outros cientistas”, afirmou. “Ao tornar os dados de acesso livre, esperamos acelerar a investigação sobre a forma como a IA nos pode ajudar a compreender melhor os animais e a melhorar o seu bem-estar”.

Referência da notícia

AI unlocks the emotional language of animals, published in iScience, March 2025.