A AWS anuncia novidades para o desenvolvimento com Generative AI
As novas ferramentas anunciadas pela tecnológica tornam mais fácil construir e escalar aplicações de Generative AI com Foundation Models
A AWS anuncia, hoje, várias inovações que farão com que a utilização de Generative AI se torne ainda mais fácil e prática para todos os seus clientes.
A Inteligência Artificial (IA) e o Machine Learning (ML) são um foco da Amazon desde há mais de 20 anos, e muitas das funcionalidades utilizadas pelos seus clientes são impulsionadas por estas mesmas tecnologias. O motor de recomendações de comércio eletrónico, a otimização das rotas dos robôs nos centros logísticos e a gestão da cadeia de fornecimento, previsão e planeamento de stocks são alguns dos exemplos de sistemas alimentados por ML.
Outros casos de sucesso são o Prime Air (serviço de entrega através de drones) e a tecnologia de visão por computador da Amazon Go, experiência física que permite aos consumidores selecionar artigos e sair da loja de sem ter de fazer um check-out formal. Aqui a AWS recorre a Deep Learning para desenvolver estas ferramentas. A Alexa, assistente digital da Amazon, utiliza mais de 30 sistemas de ML diferentes e ajuda clientes milhares de milhões de vezes todas as semanas a gerirem as suas casas inteligentes, fazer compras, aceder a entretenimento e mais.
A AWS tem desempenhado um papel fundamental na democratização do ML e em torná-lo acessível a qualquer pessoa que o queira utilizar, onde se incluem mais de 100.000 clientes de todas as dimensões e indústrias.
É por isso que clientes como a Intuit, Thomson Reuters, AstraZeneca, Ferrari, Bundesliga, 3M, e BMW, bem como milhares de startups e Governos de todo o mundo estão a transformar as suas indústrias e missões com recurso ao ML.
A AWS adota a mesma abordagem de democratização da Generative AI. Para isso tem trabalhado para que estas tecnologias saiam do domínio da investigação e da experiência, e para que cheguem a mais do que uma mão cheia de startups e de grandes empresas tecnológicas bem financiadas.
A Generative AI é um tipo de IA capaz de criar novos conteúdos e ideias, incluindo conversas, histórias, imagens, vídeos e música. Como toda a IA, a Generative AI é alimentada por modelos ML - modelos muito grandes que são pré treinados com enormes quantidades de dados e que são referidos como Foundation Models (FM). Os clientes querem ser capazes de utilizar estes modelos base e construir aplicações diferenciadas utilizando os seus próprios dados, que muitas vezes contêm propriedade intelectual valiosa. E, por isso, é necessário garantir que estes permaneçam protegidos, seguros e privados durante todo o processo.
Perante este contexto a AWS anuncia algumas novidades:
1.O Amazon Bedrock
Trata-se de um novo serviço que torna os FM da AI21 Labs, Anthropic, Stability AI, e Amazon acessíveis através de uma API. O Bedrock é a forma mais fácil dos clientes construírem e escalarem aplicações Generative AI através da utilização de FMs, pois democratiza o acesso a eles para todos os builders. Oferecerá a possibilidade de aceder a uma gama de poderosos FM para texto e imagens, incluindo o Titan FM da Amazon, que consiste em dois novos LLMs (Large Language Model) - também anunciados hoje – através de um serviço escalável, fiável e seguro gerido pela AWS. Com a experiência servereless do Bedrock, os clientes podem encontrar o modelo certo para o que estão a tentar fazer, começar rapidamente, personalizar FMs com os seus próprios dados e integrá-los e implementá-los facilmente nas suas aplicações, com recurso a ferramentas e funcionalidades AWS com as quais já estão familiarizados, sem terem de gerir qualquer infraestrutura.
2.Instâncias do Amazon EC2 Trn1n alimentado por AWS Trainium e instâncias do Amazon EC2 Inf2 Inf2 alimentado por AWS Inferentia2, a infraestrutura de cloud mais rentável para a Generative AI
Nos últimos cinco anos, a AWS tem vindo a investir no seu próprio hardware para melhorar, em termos de desempenho e preço, processos de exigentes como o treino de modelos de ML. Os chips AWS Trainium e AWS Inferentia oferecem o custo mais baixo para treino de modelos e inferência na cloud. As instâncias Trn1, alimentadas por Trainium, podem proporcionar até 50% de poupança nos custos de formação em relação a qualquer outra instância EC2, e são otimizadas para treino distribuído em múltiplos servidores ligados com 800 Gbps de rede. Hoje, a AWS anuncia a disponibilidade geral de novas instâncias Trn1n, otimizadas em rede, que oferecem 1600 Gbps de largura de banda e são concebidas para conseguir um desempenho 20% superior ao Trn1 para modelos grandes e intensivos do ponto de vista de rede.
A AWS anuncia também a disponibilização geral de instâncias Inf2 alimentadas por AWS Inferentia2, que são otimizadas especificamente para aplicações de Generative AIs de grande escala com modelos de centenas de milhares de milhões de parâmetros. As instâncias Inf2 fornecem até quatro vezes maior throughput e até dez vezes menor latência, quando comparadas com as instâncias Inferentia da geração anterior.
Estas ferramentas conduzem a um desempenho de preços de inferência até 40% melhor do que outras instâncias EC2 comparáveis da Amazon e o mais baixo custo de inferência na cloud.
3.Amazon CodeWhisperer, gratuito para programadores individuais
A Generative AI pode tornar mais leve o peso de ‘escrever’ grande parte do código indiferenciado, permitindo aos programadores construir mais rapidamente, ao mesmo tempo que os liberta para se concentrarem nos aspetos mais criativos do trabalho de código. Por esse motivo, a AWS lança o Amazon CodeWhisperer, uma ferramenta de geração de código. O CodeWhisperer utiliza um FM que permite melhorar radicalmente a produtividade dos programadores, sugerindo código em tempo real com base nos comentários dos programadores em linguagem natural e código já escrito. A AWS lança a o Amazon CodeWhisperer para Python, Java, JavaScript, TypeScript, e C# – e ainda mais dez novas linguagens, incluindo Go, Kotlin, Rust, PHP, e SQL.
Leia, aqui, o anúncio completo e com todos os detalhes.
Post A Comment:
0 comments: