Cientistas criam modelo de IA que acelera a visão computacional de alta resolução - Nerdizmo
Nerdizmo

Cientistas criam modelo de IA que acelera a visão computacional de alta resolução

Isso pode ajudar muito em reconhecimento de imagens médicas, por exemplo

Cientistas criam modelo de IA que acelera a visão computacional de alta resolução

Pesquisadores do MIT, do Laboratório de Inteligência Artificial MIT-IBM Watson e de outras instituições desenvolveram um modelo de IA que acelera a visão computacional de alta resolução, reduzindo a complexidade computacional da tarefa.

O modelo é capaz de realizar segmentação semântica – um algoritmo de aprendizado profundo que associa um rótulo a cada pixel em uma imagem – com precisão em tempo real em um dispositivo com recursos de hardware limitados, como computadores encontrados em veículos autônomos.

A nova série de modelos para visão computacional de alta resolução é até nove vezes mais rápida do que seus predecessores quando implantada em um dispositivo móvel, ao mesmo tempo que apresenta a mesma ou melhor precisão do que alternativas.

Além de auxiliar veículos autônomos a tomar decisões em tempo real, o modelo também pode melhorar a eficiência de outras tarefas de visão computacional de alta resolução, incluindo a segmentação de imagens médicas.

“Enquanto os pesquisadores têm usado transformadores de visão tradicionais por um bom tempo e eles produzem resultados incríveis, queremos que as pessoas também prestem atenção ao aspecto da eficiência desses modelos. Nosso trabalho mostra que é possível reduzir drasticamente a computação para que essa segmentação de imagem em tempo real possa acontecer localmente em um dispositivo”, disse Song Han, professor associado no Departamento de Engenharia Elétrica e Ciência da Computação (EECS).

Confira o vídeo de exemplo do projeto, abaixo.

A IA que acelera a visão computacional de alta resolução

Veja mais sobre tecnologia!

** Este texto não reflete, necessariamente, a opinião do Portal UAI.

Tags:
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments