O Que Vimos no Maior Evento de Inteligência Artificial do Mundo
Oi Pessoal,
Espero que todos estejam bem.
Entre os dias 17 e 21 de Março de 2024 tivemos a oportunidade de participar do Nvidia GTC (GPU Technology Conference) 2024 em San Jose, no Vale do Silício, Califórnia, EUA. Esse é o maior evento do mundo sobre Inteligência Artificial.
Estive no evento em 2017/18/19. Depois o evento ficou por 4 anos exclusivamente virtual (os quais sempre participei), devido à pandemia, e retornou ao modelo presencial este ano. E bateu recorde de participantes. O Keynote (apresentação feita pelo CEO da Nvidia, o Jensen Huang) foi no SAP Center, arena onde o time de Hockey San Jose Sharks manda seus jogos e tem capacidade para 17 mil pessoas. Estava praticamente lotado e foi um verdadeiro show. O Keynote teve duração de 2 horas e recomendo assistir pelo menos os 5 primeiros minutos. Para quem gosta de IA é de arrepiar:
https://www.nvidia.com/gtc/keynote
Vou trazer um resumo dos pontos principais do que acompanhei no evento.
1- O GTC é um evento bastante técnico com foco em hardware (GPUs da Nvidia em especial) e software (desenvolvimento para GPU e, claro, Inteligência Artificial). É um evento magnífico e para quem trabalha, estuda ou pesquisa IA é a chance de acompanhar o que empresas e profissionais ao redor do mundo estão fazendo. Este é o site oficial do evento:
2- Quem acompanha os cursos de IA aqui na DSA talvez não tenha isso muito claro, mas nossos cursos estão alinhados com o que há de mais atual, avançado e moderno hoje no mundo. Participei de sessões onde os apresentadores (pesquisadores e profissionais da Nvidia) ensinaram exatamente o que ensinamos nos cursos de IA aqui no portal. Aqueles que sabem aproveitar o material que recebem aqui na DSA estarão bem preparados para os desafios do mercado de trabalho.
3- O evento claramente subiu de nível em relação aos anos anteriores. Programação em Python e uso de pandas, numpy e até Deep Learning são itens básicos agora e o mínimo que se espera para quem deseja trabalhar com IA.
4- IA Generativa e LLMs foram as grandes estrelas do evento. Praticamente dominaram todas as discussões. Lembrando que esse é um evento sobre IA e desenvolvimento para GPU (o que ensinei pela primeira vez aqui na DSA em 2017). Mas o que chamou atenção foi a quantidade de aplicações que foram discutidas. Como sempre digo, a tecnologia é promissora se for capaz de resolver problemas de negócio ou mudar a vida de milhões de pessoas. Um novo ecossistema de hardware também nasceu em torno dos LLMs. Falo um pouco mais sobre isso nos próximos itens.
5- Tive a chance de participar de sessões como “XGBoost is all you need” de um dos Cientistas de Dados da Nvidia, ressaltando que LLMs e redes neurais são ótimos, mas não necessariamente a solução para tudo. É o óbvio, mas que às vezes tem que ser dito. Este foi o palestrante: https://twitter.com/tunguz
6- Cloud Computing é o padrão agora, o que demonstra que nossa decisão de trazer Cloud Computing e IA em todas as Formações 4.0 está totalmente alinhada com o futuro do mercado de trabalho em tecnologia. Deploy local faz cada vez menos sentido, pois os requisitos de hardware são cada vez maiores (ainda mais para LLMs) e por isso o deploy em nuvem está se tornando padrão. É preciso conhecer bem pelo menos um provedor de Cloud Computing. No evento os 3 maiores estavam presentes (AWS, Azure e GCP) e Azure foi usado em diversas apresentações que acompanhei.
7- A Nvidia lançou a nova plataforma de GPUs, a Blackwell. Tenho dito nas aulas (e no Podcast DSA) que a AGI (Artificial General Intelligence) se tornará realidade quando houver mudança significativa no hardware, no software ou em ambos. Blackwell parece ser uma mudança significativa no hardware e permite treinar modelos na casa de 1 trilhão de parâmetros em poucas horas. Isso deve dar um salto na capacidade generativa dos LLMs. Ainda assim, mantenho minha opinião por tudo que vi no evento e por tudo que estudo, pesquiso, ensino e trabalho com relação à IA: Creio que não teremos AGI tão cedo. Quem conhece o funcionamento técnico de modelos de IA compartilha a mesma opinião e esse foi um tema muito discutido no evento. O que existe hoje é Narrow AI e não creio que isso seja uma ameaça para a humanidade. Tarefas serão automatizadas e os empregos reinventados em vários segmentos, como tem acontecido na história da humanidade. A AGI sim pode ser uma ameaça, mas algo que ainda parece distante. Enquanto ela não chega há muito trabalho a ser feito hoje.
8- O ecossistema criado em torno dos LLMs em pouco mais de 1 ano (desde o lançamento do ChatGPT em Novembro/2022) tem sido impressionante. Uma nova geração de aplicações e soluções está nascendo, mas com um detalhe: LLM é apenas uma peça do quebra-cabeça. Como (muito) bem dito em várias sessões no evento, precisamos de várias outras peças como APIs, bancos de dados, autenticação, monitoramento, pipelines, infraestrutura e muito mais. Tudo isso soluções desenvolvidas advinha por quem? Sim, por seres humanos…..rsrs. Os cavaleiros do apocalipse terão que conviver com o fato de que ainda precisaremos de seres humanos criando as soluções por um bommmmmm tempo….rs. Minha opinião aliás segue a mesma que venho colocando nas aulas: Quanto mais automação, mais trabalho!!! Rsrs. Pelo menos para quem está de um dos lados da equação, o lado que implementa a automação.
9- Python e C++ foram as linguagens padrão no evento. A primeira pela facilidade e a segunda pela performance. Rust começa a ganhar seu espaço como uma alternativa às duas linguagens. Dominar programação em Python agora é mais ou menos como saber ler e escrever em termos de construção de soluções de IA. Pacotes como Langchain e Transformers (estudados nos cursos de IA aqui na DSA) foram muito usados nas sessões que participei. E na construção de aplicações web o padrão foi JavaScript. Jupyter Notebook e conhecimento em Linux são também conhecimentos básicos e em algumas sessões que participei isso era tudo que tínhamos para trabalhar: Linux, Jupyter Notebook e Python, para então ajustar LLMs.
10- Container Docker foi outro padrão. Todo deploy agora é feito com container Docker, na maioria dos casos na nuvem, e em vários casos com orquestração via Kubernetes. Mais uma vez nossa decisão de trazer o Docker em praticamente todos os cursos das Formações 4.0 tem se mostrado a decisão correta e alinhada com o mercado de trabalho. A propósito, em breve teremos uma nova versão do curso de bônus com Linux e Docker.
11- Gostei muito de uma sessão que assisti sobre Guardrails, para colocar limites e controles naquilo que um LLM entrega como resposta, o que é especialmente importante na área médica. Quem sabe em breve teremos uma nova função em IA: Guardrails Engineer……rsrs. Vamos abordar esse tema nos cursos de LLM aqui na DSA.
12- O GTC não é um evento sobre engenharia ou arquitetura de dados e, claro, o tema não foi debatido em detalhes. Muitos participantes talvez não tenham ideia de que independente da solução de IA que for escolhida, um forte trabalho de arquitetura e engenharia de dados precisa fazer parte do projeto, isso sem falar na automação de pipelines com CI/CD. Alguns palestrantes abordaram o tema e os LLMs vão levar a um novo ecossistema de arquitetura e engenharia de dados. Uma das palestras foi bem interessante com demonstração de como usar LLM com o Apache Kafka para criar mensagens de spam e então criar um pipeline com LLM e Apache Spark para detectar e classificar spam. Isso resume bem a questão: IA pode ser usada para o bem ou para o mal. O problema está, como sempre, no ser humano e por isso precisamos de algum tipo de regulação. Nota: O apresentador deixou bem claro que o propósito era testar as capacidades do LLM em detectar mensagens de spam.
13- Outro fator que me chamou atenção (complementando o que escrevi no item 4): Ouvi bastante alguns termos muito familiares, tais como MBA (Market Basket Analysis), Algoritmos de Busca, Sistemas de Recomendação, etc….. ou seja, estamos voltando às origens….rsrs. E tem uma explicação: LLMs geram texto de saída, o que de fato é muito pouco para uma empresa (o ChatGPT já faz isso). O poder dos LLMs tem que ser usado para fazer buscas nos sistemas e bancos de dados de uma empresa, fazer comparações, cruzar dados, gerar insights a partir de documentos, etc….e tudo isso usando linguagem natural. Aí sim está o poder ao usar IA Generativa no ambiente corporativo. Logo, precisaremos de técnicas para isso. Uma das melhores palestras que assisti foi exatamente sobre uma arquitetura onde o LLM era apenas um pedacinho e todo o restante era uma combinação de várias outras tecnologias, incluindo Machine Learning com modelos mais simples. Por fim, o usuário final tinha uma interface parecida com o ChatGPT, mas por trás uma série de tecnologias que vão além da IA. Os gestores ficarão desapontados em um primeiro momento, pois acham que é fácil, só pegar a tecnologia por trás do ChatGPT e tudo estará resolvido como em um passe de mágica…rsrsrs. Doce ilusão. Podemos montar soluções bem interessantes, mas isso envolve muito, muito trabalho.
14- Conversei com pesquisadores de vários cantos do mundo. Há muita pesquisa em torno da IA e as áreas de Medicina, Seguros, Engenharia Civil, Finanças e Agricultura parecem ser as mais ativas neste momento.
15- Os robôs já estão entre nós. Robôs para todos os lados no evento. Colocamos no LinkedIn e X da DSA o vídeo de um dos robôs com IA disponível no evento e que em breve será usado como assistente em diversos segmentos, o Mirokai. Este é o site oficial da empresa francesa que está desenvolvendo o robô:
16- Para quem também gosta de hardware, o evento é rico nesse aspecto. Não só pelas novidades, mas pela exposição de fornecedores que acontece dentro do evento. Robótica, carros autônomos (muitos desfilando pelas ruas de San Jose e San Francisco), sistemas multi-gpu e muito mais. O link abaixo traz uma lista das empresas que exibiram seus produtos (de hardware e software) no evento:
17- LLMs foram as estrelas do evento e o Llama2 foi de longe o mais popular. Na palestra da Joelle Pineau, Vice-presidente de Pesquisa em IA da Meta (que desenvolveu o Llama2) ela citou que o Llama3 será lançado ainda em 2024. Falcon e Mistral foram outros LLMs bastante citados no evento. Llama2 e Falcon já são estudados nos cursos de LLM aqui na DSA e vamos incluir o Mistral também. Um dos Diretores da Mistral.AI deu uma palestra e gostei muito dos planos da empresa para os próximos anos.
18- A Nvidia lançou o NIM (Nvidia Inference Microservice) para facilitar o deploy de LLMs. Acho que essa é uma tendência. Vamos trazer isso para os alunos nos cursos da FEI 4.0 e FIAMED 4.0.
19- RAG (Retrieval-Augmented Generation) foi outro tema muito abordado no evento. Para quem não está familiarizado, RAG é uma técnica para aumentar a capacidade de um LLM fornecendo outras fontes de dados (além dos dados usados no treinamento do LLM), como arquivos pdf ou bancos de dados, tornando o LLM mais preciso, customizado e adaptado a casos de uso específicos, além de reduzir os erros nas respostas dos LLMs. RAG é tema das Formações FEI 4.0 e FIAMED 4.0 aqui na DSA e como a adoção de RAG vem crescendo bastante no mercado, vamos aumentar a abordagem nas Formações também. Fine-tuning de LLMs também foi bastante abordado no evento e Fine-tuning + RAG é o que pode gerar melhores resultados. Mas isso requer hardware, além de muito desenvolvimento para fazer tudo funcionar.
20- Um dos pontos mais legais do evento foi a conversa do CEO da Nvidia com os pesquisadores que escreveram o paper “Attention is All You Need”, que marcou a criação dos Transformers, arquitetura de Deep Learning por trás dos LLMs. Como mencionado pelo CEO durante a conversa esses profissionais ajudaram a mudar o rumo da IA e, quem sabe, da história humana. Aqui tem detalhes sobre a conversa:
https://blogs.nvidia.com/blog/gtc-2024-transformer-ai-research-panel-jensen/
O GTC é um evento magnífico para quem gosta de IA e está envolvido com a tecnologia de alguma forma. O GTC2025 ocorrerá em Março de 2025. Quem tiver a chance, participe, mas é preciso um bom nível de inglês para conseguir acompanhar o evento.
Mas o momento mais marcante do evento foi durante o Keynote do CEO da Nvidia. Ele mostrou um dos marcos da evolução da IA que aconteceu em 2012 com a Rede Neural Convolucional, a AlexNext que venceu competições de Visão Computacional e mostrou para o mundo o que já podia ser feito com IA (citamos a AlexNet nos cursos de Visão Computacional aqui na DSA). Em 2012 entregávamos ao modelo de IA cerca de 1 milhão de pixels e ele devolvia 3 letras (CAT, por exemplo, classificando a imagem como sendo de um gato). Hoje, 12 anos depois, entregamos ao modelo de IA as 3 letras (CAT por exemplo) e ele devolve 1 milhão de pixels, criando a imagem de um gato. Imagina o que viveremos nos próximos 12 anos? Não é incrível poder fazer parte dessa história e no meio do caminho ainda ajudar empresas a resolverem problemas de negócio?
Saio do evento muito satisfeito mais uma vez, por ver que estamos trazendo para os alunos as técnicas e ferramentas mais avançadas e modernas do mercado, ao mesmo tempo que recebi insights preciosos para projetos de IA no dia a dia. Quem sabe aproveitar os cursos em nosso portal tem um rico material nas mãos que permite realmente mudar de nível, o que sempre foi o objetivo com o que fornecemos aqui na DSA.
Abs
Daniel Mendes
Interessante o relato sobre o evento!! Muito bom sempre a par das atualizações sobre IA!