Jomar Silva, evangelista da área de software da Intel, introduziu sua palestra falando um pouco de como time global trabalha junto dos desenvolvedores para otimizar softwares já existentes, quando algum novo componente chega ao mercado. O grande desafio da indústria atualmente é tratar o enorme número de dados gerados por diversas aplicações. Em uma pesquisa feita recentemente pela empresa, em 2020 o usuário comum da internet estará gerando uma média de 1.5 GB de dados e uma fábrica inteligente, por volta de 1 PB por dia. Essa quantidade imensa de dados fica armazenada e precisa ser rapidamente processada para se obter algum tipo de resposta imediata, como é o caso do aplicativo Waze, que armazena um histórico de utilizações para dar ao usuário uma estimativa de quanto tempo chegará em determinado destino. Essa informação necessita ser processada em tempo real assim que o motorista ligar a aplicação, pois caso leve um certo tempo, essa informação deixa de ser útil para o usuário. Esse paradigma começou na época onde havia a necessidade de conectar todos os dispositivos na rede, sendo que, com o aumento exponencial do volume de dados gerados, está se fazendo necessário quebrar o processamento ao longo da cadeia que liga o dispositivo à nuvem para diminuir esses valores. A Inteligência Artificial está sendo crucial para o processamento de informação em tempo hábil e é peça fundamental em todos os elementos da cadeia.
A Inteligência Artificial no vídeo
Atualmente, o vídeo se faz presente em tudo, é uma peça fundamental para a análise de informações e serviços – Medicina, serviços financeiros, manufatura, serviços públicos e muitos outros. A Inteligência Artificial será de papel fundamental para coletar somente informações importantes dessa mídia e mandá-las à nuvem, diminuindo a quantidade de dados e processando informações em tempo real. E isso será feito mediante a visão computacional (“computing vision”, termo original), que é simplesmente ensinar o computador a extrair informações de uma imagem ou sequência de imagens. Essa tecnologia já existe há décadas, mas a partir dos anos 2000 houve um crescimento exponencial, pois a Intel, em 1999, disponibilizou toda a pesquisa feita na Intel Labs para os desenvolvedores através de um código-fonte chamado OpenCV. Os maiores desafios para a visão computacional é ensinar ao computador o reconhecimento de imagens nas mais diversas situações, levando em conta a qualidade da imagem, oclusão, perspectiva dos objetos, deformação por movimento, luz, variação de objetos e ilusão de ótica. Digamos que o desenvolvedor deseja fazer que o computador reconheça cavalos. Ele pode desenvolver e aplicar um algoritmo dizendo que um ser vivo com certas características seja um cavalo. O computador, ao analisar uma imagem onde o cavalo está em movimento, no escuro ou até mesmo alguma parte do corpo escondida atrás de um objeto, terá dificuldades de identificar o cavalo. Fazer o computador reconhecer seres vivos e objetos em suas infinitas variações e nas mais diversas situações, é o grande desafio da visão computacional e uma tarefa muito complexa. Para reconhecimento facial, a tecnologia obtida mediante do machine learning é falha, já que nosso rosto está suscetível a mudanças, ou ser coberto por acessórios como óculos, que iriam confundir o algoritmo. O intuito era achar uma forma que lidasse com essas exceções e fosse mais preciso. Atualmente, o desenvolvimento dessas tecnologias de reconhecimento está sendo feita mediante o deep learning, onde o desenvolvedor possui diversas fotos da mesma pessoa no banco de dados, e a rede neural é treinada a fazer o reconhecimento dessa pessoa, aceitando uma margem muito maior de captura de imagem comparado ao machine learning. O treinamento envolve um grande dataset com milhões de imagens a serem analisadas pela rede, a acurácia de detecção é definida pelo tempo destinado a esse treinamento e o desenvolvedor da aplicação irá ver a necessidade da acurácia dependendo da aplicação que quer desenvolver. Um exemplo claro são as aplicações destinadas à medicina, onde a análise de raios-x para detecção de pneumonia chegou a uma acurácia de 35%, o que já é um ganho em relação ao olho do ser humano que possui somente 20-28% de acurácia. Isso demonstra que a Inteligência Artificial aplicada nessa área pode antecipar diagnósticos que poderiam passar despercebidos pelo olho do médico e salvar muitas vidas. Muito em breve, essa inferência estará disponível dentro do próprio aparelho de raio-x, não necessitando subir um volume grande de dados para a nuvem.
OpenVino da Intel
O OpenVino é uma plataforma open source para que se possa criar soluções de visão computacional. Ele otimiza os algoritmos para funcionarem em processadores e soluções de hardware da Intel. Umas das principais características do OpenVINO é permitir a inferência de deep learning em edge devices (dispositivos na ponta) e também a utilização de frameworks populares de deep learning, como o TensorFlow, Caffe e Torch. A grande sacada é o desenvolvedor poder mudar de hardware durante o desenvolvimento de sua solução sem sofrer perdas. A Intel está constantemente atrás de parcerias para o desenvolvimento não só de tecnologias, mas de profissionais também. Um dos grandes problemas é o número de estudantes que estão dispostos a trabalhar com Inteligência Artificial. Para ajudar nessa questão, a Intel faz uma troca com grandes instituições de ensino, garantido o acesso à tecnologia em troca dos artigos científicos gerados pelos projetos. O objetivo da empresa é que a Inteligência Artificial faça parte do cotidiano das pessoas, gerando respostas imediatas à soluções, ajudando em tarefas e salvando vidas. A Intel está disposta a oferecer as melhores ferramentas e o suporte total para o desenvolvimento dessas ferramentas em IA.