A
Google revela uma série de ferramentas que visam democratizar o acesso
ao Machine Learning e colocar a tecnologia ao alcance de todos os
negócios. Os novos Hub AI e Kubeflow Pipelines são
as ferramentas que podem ajudar os cientistas de dados a escalar os
seus esforços e ajudar as organizações a tirar o máximo partido do seu
trabalho e a torná-lo acessível aos seus programadores e engenheiros.
Não importa se estão a revolucionar a cadeia de abastecimento de confecção de roupas ou a acelerar o e-commerce, as empresas de todos os sectores estão a recorrer cada vez mais à inteligência artificial (IA) para avançar no que for possível. No entanto, para muitas empresas, as complexidades da IA podem parecer assustadoras.
O nosso objectivo é colocar a IA ao alcance de todos os negócios. Mas isso significa reduzir as barreiras à entrada. É por isso que desenvolvemos todas as nossas ofertas de IA assentes em três pontos: simplificá-las, para que mais empresas possam adoptá-las, torná-las úteis para a vasta maioria das organizações e torná-las rápidas, para que as empresas possam interagir e ter mais sucesso de uma forma mais célere.
No início deste ano, anunciamos a AutoML para
ajudar as empresas com conhecimentos e experiência limitada em Machine
Learning (ML) a criar os seus próprios modelos ML personalizados.
Investimos em formação e certificações especializados para ajudar a aumentar o conjunto de requisitos em ML de forma mais ampla. Além disso, disponibilizámos para empresas o Advanced Solutions Lab,
que oferece, no próprio local, colaboração com os engenheiros de ML da
Google. Todos estes factores, contribuíram para o aumento da adopção da
IA por parte das empresas. Até hoje, temos mais de 15.000 clientes de
várias indústrias que pagam pelos nossos serviços de IA.
Outra
maneira de tornar a IA mais rápida, mais simples e mais útil é ajudar
os cientistas de dados a serem mais eficientes. Embora existam
aproximadamente 20 milhões de programadores no mundo, apenas existem 2
milhões de cientistas de dados. Estes precisam de ferramentas que os
possam ajudar a escalar os seus esforços, e as organizações precisam de
mais formas de tirar o máximo partido do seu trabalho e a torná-lo
acessível aos seus programadores e engenheiros. Hoje estamos a revelar
novos produtos para o nosso portfólio de IA que fazem exactamente isto.
Tornar a AI mais simples com o Hub AI
Colocar
a IA no alcance de mais empresas significa facilitar a descoberta, a
partilha e a reutilização de ferramentas e trabalhos já existentes. Mas
até recentemente, a escassez de conhecimento sobre ML na força de
trabalho tornava difícil construir algo abrangente. Hoje, estamos a
lançar o Hub AI para responder a esta necessidade.
O
AI Hub é um destino único para conteúdos ML plug-and-play, incluindo
pipelines, notebooks Jupyter, módulos TensorFlow e muito mais. Ele traz
dois benefícios significativos. O primeiro é disponibilizar publicamente
a qualquer empresa recursos de ML de alta qualidade desenvolvidos pelo
Google Cloud AI, pela Pesquisa Google e por outras equipas dentro da
Google. O segundo benefício é disponibilizar um hub privado e seguro,
onde as empresas podem carregar e partilhar recursos de ML dentro das
suas próprias organizações. Isto torna mais fácil às empresas
reutilizarem pipelines e implementá-los em produção no GCP ou em
infraestruturas híbridas utilizado o sistema Kubeflow Pipeline - em
apenas algumas etapas.
Em
alpha, o Hub AI irá disponibilizar estes recursos e controlos de
partilha privados desenvolvidos pela Google e a versão beta irá ser
expandida para incluir mais tipos de activos e uma ampla variedade de
conteúdo público, incluindo soluções de parceiros.
Tornar a IA mais útil com Pipelines Kubeflow e atualizações de API para vídeo
Não
é suficiente disponibilizar um local onde as organizações possam
descobrir, partilhar e reutilizar recursos ML. As empresas também
precisam de uma maneira de criá-las e empacotá-las para que possam ser o
mais úteis possível e para o maior número de utilizadores internos. É
por isso que estamos a apresentar o Kubeflow Pipelines.
O Kubeflow Pipelines é um novo componente do Kubeflow,
um projeto popular de código aberto iniciado pela Google, que codifica o
código ML da mesma forma que quando se cria uma aplicacão de modo a que
possa ser reutilizável para outros utilizadores em toda a organização. O
Kubeflow Pipelines fornece um ambiente de trabalho para se compor,
implementar e gerir fluxos de trabalho de ML reutilizáveis end to end,
tornando-o numa solução híbrida sem bloqueio, desde a criação de
protótipos até à respectiva produção. Isto permite também uma
experimentação rápida e confiável, para que os utilizadores possam
testar várias técnicas de ML e identificarem quais as que funcionam
melhor para a sua aplicação.
A imparcialidade é um dos nossos princípios orientadores de inteligência artificial e algo que discutimos com os nossos clientes CLOUD quando adoptam o ML nos seus próprios negócios. O Kubeflow Pipelines pode ajudá-los a aproveitar as bibliotecas de código aberto TensorFlow Extended (TFX) da Google que ajudam na resolução dos problemas de produção de ML, como análises de modelo, validação de informação, desvio de dados, entre outros. Isto melhora a precisão e a relevância dos resultados para as empresas. Podem começar a utilizar o Kubeflow Pipelines no GitHub.
Também
continuamos a expandir os recursos dos nossos blocos de produção de
inteligência artificial para torná-los ainda mais úteis para as
empresas, incluindo a versão beta de três funcionalidades na nossa Cloud
Video API que responde aos desafios comuns para empresas que trabalham
intensivamente com vídeo. A Detecção de Texto pode, agora, determinar
onde e quando o texto aparece num vídeo, tornando o vídeo pesquisável
mais facilmente e suporta mais de 50 idiomas.
O Tracking de Objetos pode identificar mais de 500 classes de objectos
num vídeo. A Transcrição de Voz para Vídeo pode transcrever áudio,
permitindo criar facilmente legendas e sub-legendas, bem como aumentar a
capacidade de pesquisa dos seus conteúdos.Saiba mais sobre os nossos
blocos de construção de IA no nosso site.
Tornar a IA mais rápida com as atualizações da Cloud TPU
Estamos continuamente a reduzir as barreiras de computação para IA com as nossas TPUs. Estes chips ASIC personalizados projectados pela Google para fluxos de trabalho de ML aceleram drasticamente as tarefas de ML e são de fácil acesso através da Cloud.
Em Julho, anunciámos que os nossos TPUs de segunda geração estão geralmente disponíveis e ao alcance de todos os utilizadores da Cloud, incluindo utilizadores de nível gratuito. Em Outubro, anunciámos a versão beta dos nossos Cloud TPUs de terceira geração com refrigeração líquida, e disponibilizámos o PyTorch na Google Cloud e, em breve, teremos a oportunidade de o utilizar nos TPUs. Hoje também estamos a anunciar a tabela de preços para os nossos TPU V2 Pods. Todas estas actualizações visam tornar a utilização do machine learning mais rápida e mais acessível para as empresas de todo o mundo. Saiba mais sobre TPUs no nosso site.
A olhar para o futuro
Ao
longo dos últimos meses, temos tido conhecimento do sucesso de muitos
dos nossos clientes que utilizam a Inteligência Artificial para
solucionar os seus desafios comerciais exclusivos.
A
Meredith Corporation, uma empresa de media, utiliza o Machine Learning
para automatizar a classificação de conteúdo, aplicando uma taxonomia
universal personalizada com o Cloud AutoML e o Natural Language. O
Machine Learning ajuda a companhia a tornar a classificação de
conteúdo mais repetível e escalável, economizando tempo e melhorando a
experiência do leitor.
Na Meredith Corporation, estamos focados em criar conteúdo atraente em plataformas e fases da vida das marcas como a PEOPLE, Better Homes & Gardens, Martha Stewart Living, Allrecipes e Food & Wine", afirma Alysia Borsa, Chief Marketing & Data Officer, Meredith Corporation. "Ao utilizar os serviços de Natural Language e AutoML para aplicar a nossa taxonomia universal personalizada no nosso conteúdo, somos capazes de identificar e responder melhor às tendências emergentes, permitir uma segmentação detalhada e robusta e disponibilizar experiências mais relevantes e envolventes ao nosso público. "
A Emory University está a combinar informação clínica, Machine Learning e a infraestrutura escalável do GCP para desenvolver um mecanismo de predição de sépsis que
utiliza análise de dados em tempo real num esforço para oferecer um
atendimento melhor aos pacientes em risco e ao mesmo tempo controlar os
custos médicos.
"Com
a sépsis, a detecção precoce é fundamental", afirma o Dr. Ashish
Sharma, professor assistente do Departamento de Informática Biomédica da
Faculdade de Medicina da Emory University. "Ao converter o nosso
algoritmo de previsão de sépsis baseado no TensorFlow numa aplicação e
executá-lo no Google App Engine, estamos em condições de disponibilizar
informações aos médicos, mais rapidamente, de modo a que possam actuar
de forma ainda mais significativa junto do doente. O que mais importa é
melhorar os resultados médicos dos doentes UTIs e o Machine Learning é
crucial para ajudar a optimizar o tratamento destes doentes.”
A Geotab utiliza o BigQuery ML e o BigQuery GIS para prever possíveis áreas de risco rodoviário em Chicago e permitir a tomada de decisões com base em dados e tonar as cidades cada vez mais inteligentes.
“A
Geotab disponibiliza informações com base em dados sobre veículos das
frotas comerciais em todos os continentes”, afirma Mike Branch, Vice
President Data & Analytics, Geotab “Ao alavancar o Machine Learning e
o BigQuery, entre outros insights, conseguimos desenvolver uma solução
para os nossos clientes que faz a previsão das áreas de condução
particularmente perigosas numa cidade, com base na meteorologia e no
fluxo de tráfego. Estamos muito entusiasmados por colaborar com a
tecnologia de Machine Learning do Google Cloud para ajudar a criar
melhores soluções para os nossos clientes e para a comunidade. ”
Também
estamos felizes em ver o crescimento contínuo da comunidade Kubeflow.
Organizações como a Cisco e NVIDIA estão entre os principais
contribuintes para este projecto de código aberto e estão a colaborar
connosco de perto para adoptar pipelines Kubeflow. A NVIDIA já está
prestes a integrar o RAPIDS, um novo conjunto de bibliotecas de ciência
de dados de código aberto, no Kubeflow. A biblioteca RAPIDS tira partido
do GPUs para disponibilizar um enorme aceleração no pré-processamento
de dados e no Machine Learning, complementando perfeitamente o Kubeflow.
“O
Machine Learning está a emergir rapidamente como parte indispensável da
transformação digital que os nossos clientes estão a realizar. Além
disso, o ML está a ganhar cada vez mais força com as equipas de
engenharia de TI e mainstream da empresa, à medida que procuram
implementar arquitecturas que respondam aos cientistas de dados nas
suas linhas de negócios. Perceber o potencial do ML em ambientes
corporativos requer uma simplificação dramática do ciclo de vida de toda
a solução ”, afirma Kaustubh Das, vice
president, data center product management, Cisco. “As contribuições
significativas da Cisco para o Kubeflow têm como objectivo simplificar a
gestão do ciclo de vida da hibrid / multicloud IA / ML. A Cisco está
igualmente satisfeita em ver o surgimento do Kubeflow Pipeline, que
promete uma simplificação radical dos fluxos de trabalho de ML que são
críticos para adopção mainstream.
Estamos ansiosos para incorporar os benefícios desta tecnologia no
nosso portfólio de produtos IA/ ML de classe mundial para os nossos
clientes. ”
Vamos
continuar a trabalhar de perto com os nossos clientes e parceiros para
entender os seus desafios de negócios e como a IA pode ser aplicada para
os resolver. Para saber mais sobre IA e Machine Learning AI no Google
Cloud, visite o nosso site.
Post A Comment:
0 comments: