Hoje, recebemos milhares de pessoas no I/O, nossa conferência anual para desenvolvedores. Esse é um dos nossos eventos favoritos do ano porque nos dá a chance de mostrar como estamos dando vida à missão do Google por meio de novos avanços e produtos tecnológicos.

Nossa missão de tornar as informações universalmente acessíveis e úteis não mudou nos últimos 21 anos, mas nossa abordagem evoluiu com o tempo. O Google não é mais uma empresa que apenas te ajuda a encontrar respostas. Hoje, os produtos do Google também te auxiliam a fazer as coisas, seja encontrando as palavras certas com o Smart Compose no Gmail ou o caminho para casa mais rápido com o Google Maps.

De forma simples, nossa visão é criar um Google mais útil para todos, independentemente de quem você é, onde mora ou o que espera realizar. Quando dizemos ser útil, queremos oferecer as ferramentas para aumentar seu conhecimento, sucesso, saúde e felicidade. Temos a satisfação de compartilhar alguns dos produtos e recursos anunciados hoje que nos aproximam desse objetivo.

Ajudando a obter as melhores respostas para suas perguntas

As pessoas recorrem ao Google para fazer bilhões de perguntas todos os dias. Mas ainda podemos fazer mais para te ajudar a encontrar as informações de que precisa. Hoje, anunciamos que levaremos o popular recurso Full Coverage do Google Notícias para o Search. Com o aprendizado de máquina, vamos identificar diferentes pontos de uma história, desde uma linha do tempo de eventos até as principais pessoas envolvidas, e exibiremos um amplo conteúdo, incluindo artigos, tweets e, até mesmo, podcasts.

Às vezes, a melhor maneira de entender novas informações é vê-las. Os novos recursos do Google Search e do Google Lens usam a câmera, a visão por computador e a realidade aumentada (RA) para fornecer respostas visuais a perguntas visuais. E agora estamos trazendo a RA diretamente para a Busca. Se você estiver procurando por novos sapatos on-line, poderá vê-los de perto de diferentes ângulos e, até mesmo, ver se eles combinam com seu guarda-roupa atual. Você também pode usar o Google Lens para obter mais informações sobre o que está vendo no mundo real. Se estiver em um restaurante e apontar sua câmera para o menu, o Google Lens destacará quais pratos são populares e mostrará fotos e resenhas de pessoas que já estiveram lá antes. No Google Go, o aplicativo de pesquisa para os smartphones mais simples, o Google Lens lerá em voz alta as palavras que você vê, ajudando milhões de adultos em todo o mundo que lutam para enxergar coisas do dia a dia, como placas de rua ou instruções de caixas eletrônicos.
 

Ajudando a facilitar o seu dia

No I/O do ano passado, apresentamos nossa tecnologia Duplex, que pode fazer uma reserva de restaurante por meio do Google Assistente, fazendo uma ligação em seu nome. Agora, estamos expandindo o Duplex além da voz para te ajudar a fazer as coisas na web. Para começar, estamos nos concentrando em duas tarefas específicas: alugar carros e comprar ingressos de cinema. Usando o "Duplex na Web", o Assistente insere informações automaticamente, navega no fluxo de reservas e conclui uma compra em seu nome. E, com avanços maciços em aprendizado profundo, agora é possível proporcionar um entendimento ainda mais preciso sobre fala e linguagem natural para dispositivos móveis, permitindo que o Google Assistente trabalhe mais rápido para você.

Continuamos acreditando que as maiores descobertas acontecem na interseção de Inteligência Artificial, software e hardware, e hoje anunciamos dois produtos feitos pelo Google: o novo Pixel 3a (e 3a XL) e o Google Nest Hub Max. Com o Pixel 3a, oferecemos às pessoas os mesmos recursos que elas adoram em um hardware mais acessível. O Google Nest Hub Max traz a utilidade do Assistente para qualquer divisão da sua casa e muito mais.

Construindo para todos

Tão importante quanto criar um Google mais útil é que isso seja feito para todos. Desde os primeiros tempos, o Search funcionou da mesma forma, quer seja para um professor em Stanford ou para um estudante na Indonésia rural. Ampliamos essa abordagem para o desenvolvimento de tecnologia com responsabilidade, segurança e de uma maneira que beneficie a todos.

Isso é especialmente importante no desenvolvimento da IA. Por meio de uma nova abordagem de pesquisa chamada TCAV - ou testando com vetores conceituais de aviação - estamos trabalhando para lidar com o preconceito na aprendizagem automática e tornar os modelos mais interpretáveis. Por exemplo, o TCAV poderia revelar se um modelo treinado para detectar imagens de “médicos” erroneamente assumiu que ser homem era uma característica importante de ser médico, porque havia mais imagens de médicos do sexo masculino nos dados de treinamento. Temos o TCAV de código aberto para que todos possam tornar seus sistemas de IA mais justos e interpretáveis, e lançaremos mais ferramentas e conjuntos de dados abertos em breve.

Outra maneira de construirmos com responsabilidade para todos é garantir que nossos produtos sejam seguros e privativos. Estamos fazendo um conjunto de melhorias de privacidade para que as pessoas tenham escolhas claras sobre seus dados. A Conta do Google, que fornece uma visão única das suas configurações de controle de privacidade, agora será facilmente acessada em mais produtos com um único toque. O modo de navegação anônima está chegando ao Google Maps, o que significa que você pode pesquisar e navegar sem vincular essa atividade à sua Conta do Google, e os novos controles de exclusão automática permitem que você escolha por quanto tempo deseja salvar seus dados. Também estamos fazendo vários aprimoramentos de segurança no Android Q e estamos criando a proteção de uma chave de segurança diretamente no telefone para a verificação em duas etapas.

À medida que olhamos para frente, estamos desafiando a noção de que os produtos precisam de mais dados para serem mais úteis. Uma nova técnica chamada aprendizado federado nos permite treinar modelos de IA e tornar os produtos mais inteligentes, sem que dados brutos saiam do seu dispositivo. Com o aprendizado federado, o Gboard pode aprender novas palavras como "zoodles" ou "Targaryen" depois que milhares de pessoas começarem a usá-las, sem sabermos o que você está digitando. No futuro, os avanços da IA ​​fornecerão ainda mais formas de tornar os produtos mais úteis com menos dados.

Construir para todos também significa garantir que todos possam acessar e desfrutar de nossos produtos, incluindo pessoas com deficiências. Hoje apresentamos vários produtos com novas ferramentas e recursos de acessibilidade, incluindo o Live Caption, que pode captar uma conversa em um vídeo, um podcast ou em um bate-papo que está acontecendo na sua casa. No futuro, o Live Relay e a Euphonia ajudarão pessoas que têm problemas para se comunicar verbalmente, seja por causa de um distúrbio de fala ou de uma perda auditiva.


O desenvolvimento de produtos para pessoas com deficiências geralmente leva a avanços que melhoram os produtos para todos os usuários. É exatamente isso que queremos dizer sobre criar um Google mais útil para todos. Também queremos capacitar outras organizações que estão usando a tecnologia para melhorar a vida das pessoas. Hoje, reconhecemos os vencedores do Google AI Impact Challenge, com 20 organizações que usam a IA para resolver os maiores problemas do mundo, desde a criação de sistemas de monitoramento de melhor qualidade do ar até a aceleração das respostas de emergência.

Nossa visão de criar um Google mais útil para todos não pode ser realizada sem nossa incrível comunidade global de desenvolvedores. Juntos, estamos trabalhando para fornecer a todos as ferramentas para aumentar seu conhecimento, sucesso, saúde e felicidade. Há muita coisa acontecendo, por isso, mantenha-se atualizado com todas as notícias relacionadas ao I/O.

Postado por Sundar Pichai, CEO do Google