agosto 29, 2017
A definição teórica ou até semântica de inteligência artificial pode ser bastante extensa. Podemos nos perguntar, afinal o que é inteligência? Ou qual a natureza dessa artificialidade? Definições à parte, atualmente, a Inteligência Artificial tem como componentes diversos fatores: grandes bases de dados + bons modelos + alta capacidade de processamento. Isso tudo envolve outra série de tecnologias: machine learning, deep learning e processamento de linguagem natural.
Em 1956, quando se falou pela primeira vez em IA, o processo de aprendizado das máquinas incluía árvore de aprendizado, programação lógica indutiva, agrupamento, aprendizado reforçado, redes Bayesianas, entre outros. Só que nada disso, por si só, resultou em uma inteligência artificial eficaz, capaz de ser aplicada no dia-a-dia.
O que funcionou foi tempo e algoritmo de aprendizado correto. O surgimento do Machine Learning, que é basicamente usar algoritmos para coletar dados, aprender com eles e tomar uma ação, impulsionou o desenvolvimento da IA. Assim, a máquina identifica o que é o quê sem a necessidade de ser previamente programada usando apenas o raciocínio indutivo. É aplicado em tarefas onde a quantidade de algoritmos necessários é tão grande que fica inviável a criação e programação de todos eles.
Em 2015, com a facilidade do uso de GPUs (Graphics Processing Unit) para processamento de dados, aplicar a IA para resolver problemas de diferentes áreas ficou mais rápido e barato. Além disso, a chegada do deep learning ajudou a impulsionar ainda mais o desenvolvimento da IA. Trata-se de uma subcategoria de machine learning, que trabalha as oportunidades de aprendizagem profundas com o uso de redes neurais.
A vantagem dos algoritmos do deep learning é sua a capacidade de aprendizagem em grandes quantidades de dados de uma forma não-supervisionada (dados não anotados), sendo assim uma ferramenta valiosa para Big Data Analytics. As máquinas inspiradas em deep learning conseguem aprender abstrações complexas dos dados através de um processo de aprendizagem hierárquica muito similar ao que ocorre no cérebro humano, sobretudo no córtex visual.
Para aprender as características de uma imagem, por exemplo, é possível identificar o objeto desenhado usando diferentes referências. A máquina monta uma arquitetura do objeto/imagem mapeando-o por meio de várias camadas de processamento, compostas de transformações lineares e não lineares. Dessa forma, ela seleciona quais atributos são os mais adequados para aprender o que é aquela estrutura e reconhecê-la novamente no futuro.
Por último, outro componente fundamental da Inteligência Artificial hoje são os sistemas de Processamento de Linguagem Natural (PNL), subárea da AI sobre geração e compreensão da linguagem humana. Os PNL de geração de linguagem natural são capazes de transformar dados em linguagem humana. Já os sistemas de compreensão de linguagem natural convertem ocorrências de linguagem humana em representações mais formais. Exemplos de PNL de geração e compreensão incluem sistemas de OCR, teclado de voz do Whatsapp ou as assistentes Siri e Cortana.
Ou seja: AI não é mais coisa do futuro, ela está entre nós. Ok, ainda não é como imaginávamos: humanóides que combatem forças do mal, como C3PO, ou a própria força do mal, como o Exterminador do Futuro. Mas a verdade é que a Inteligência Artificial está cada vez mais presente na nossa vida seja nos respondendo qual é a agenda do dia, reconhecendo o rosto dos nossos amigos no Facebook ou identificando indicadores de câncer no sangue e tumores em exames de ressonância magnética.
Na Web.br 2017, a cientista de dados da Amazon Web Service, Rayssa Kullian irá abordar este tema. Rayssa é graduada em Sistemas de Informação pela Faculdade de Informática e Administração Paulista (FIAP) e mestranda em Ciência da Computação (IA) pelo IME/USP.
inscrições