(11) 3232-0000

 

NOTÍCIAS

Insights e práticas recomendadas para executar aplicativos essenciais aos negócios no Azure

O ritmo no qual a Inteligência Artificial (IA) está avançando é notável. Ao olharmos para os próximos anos neste campo, uma coisa é clara: a IA será celebrada por seus benefícios, mas também examinada e, até certo ponto, temida. Continua sendo nossa convicção que, para que a IA beneficie a todos, ela deve ser desenvolvida e usada de maneiras que garantam a confiança das pessoas. A abordagem da Microsoft, que se baseia em nossos princípios de IA, concentra-se no estabelecimento proativo de barreiras para sistemas de IA para que possamos ter certeza de que seus riscos sejam antecipados e mitigados e seus benefícios maximizados.

Nos últimos anos, os princípios em torno do desenvolvimento de IA de maneira responsável proliferaram e, na maior parte, há um consenso absoluto sobre a necessidade de priorizar questões como transparência, justiça, responsabilidade, privacidade e segurança. Além disso, embora os princípios sejam necessários, tê-los sozinhos não é suficiente. O trabalho árduo e essencial começa quando você se esforça para transformar esses princípios em práticas.

Hoje, estou compartilhando alguns detalhes sobre os blocos de construção que são a base de nosso programa de IA responsável na Microsoft: uma estrutura de governança para permitir o progresso e a responsabilidade; regras para padronizar nossos requisitos de IA responsáveis; treinamento e práticas para ajudar nossos funcionários a agir de acordo com nossos princípios e pensar profundamente sobre os impactos sociotécnicos de nossos sistemas de IA; e ferramentas e processos para implementação.

Há muito mais para discutir em torno de questões críticas como reconhecimento facial, modelos de linguagem em grande escala e outros aplicativos de IA confidenciais que afetam todas as nossas vidas. Estamos engajados nessas questões e planejamos permanecer envolvidos nas discussões mais amplas em toda a comunidade e ouvir e aprender com os outros. É importante ter essas conversas sociais mais amplas porque as escolhas coletivas que fazemos irão moldar a forma como construímos e usamos IA e o futuro que isso ajudará a concretizar.

Este post não aborda esses problemas diretamente. É focado especificamente em uma questão central que recebemos de clientes e da comunidade em geral sobre como pegamos princípios e os colocamos em prática. Este blog é sobre os processos, ferramentas, treinamento e outros recursos que usamos para garantir que as soluções de IA que desenvolvemos realmente reflitam os princípios que adotamos.

Governança como base para conformidade

Embora haja muito do que é novo e inexplorado no domínio da IA ​​responsável, também sabemos que há muito a ser aprendido em seus domínios adjacentes. Nossa abordagem de governança de IA responsável empresta o modelo hub-and-spoke que funcionou com sucesso para integrar privacidade, segurança e acessibilidade em nossos produtos e serviços.

Nosso “hub” inclui: o Comitê Aether, cujos grupos de trabalho aproveitam os maiores talentos científicos e de engenharia para fornecer expertise no assunto no estado da arte e tendências emergentes em relação à promulgação dos princípios de IA responsáveis ​​da Microsoft; o Office of Responsible AI, que define nossas políticas e processos de governança; e nosso grupo Estratégia de IA responsável em engenharia (RAISE), que permite que nossos grupos de engenharia implementem nossos processos de IA responsáveis ​​por meio de sistemas e ferramentas. Os três grupos trabalham juntos para definir um padrão consistente para IA responsável em toda a empresa e capacitam nossos “porta-vozes” para conduzir iniciativas e ser responsáveis ​​por elas.

Os braços de nossa governança incluem nossa comunidade Responsible AI Champs. Os campeões são indicados pela liderança da empresa e fazem parte das equipes de engenharia e vendas de toda a empresa. Eles aumentam a conscientização sobre a abordagem da Microsoft para a IA responsável e as ferramentas e processos disponíveis, eles identificam problemas e ajudam as equipes a avaliar as considerações éticas e sociais e cultivam uma cultura de inovação responsável em suas equipes.

Desenvolvimento de regras para implementar nossos princípios

No outono de 2019, publicamos internamente a primeira versão de nosso Responsible AI Standard, um conjunto de regras sobre como implementamos nossos princípios de IA responsável sustentados pela política corporativa da Microsoft. Publicamos a primeira versão do Standart com o objetivo de aprender e com um humilde reconhecimento de que estávamos no início de nosso esforço para passar sistematicamente dos princípios às práticas. Por meio de um piloto em fases em 10 grupos de engenharia e duas equipes voltadas para o cliente, aprendemos o que funcionou e o que não funcionou. Nossas equipes piloto apreciaram os exemplos de como as preocupações com IA responsável podem surgir. Eles também lutaram algumas vezes com o caráter aberto das considerações estabelecidas no Standard e expressaram o desejo de requisitos e critérios mais concretos. Havia uma sede por mais ferramentas, modelos e sistemas, e por uma integração mais próxima com as práticas de desenvolvimento existentes.

Pouco mais de um ano depois, estamos testando a versão dois do padrão de IA responsável com nossos funcionários. A revisão reforça uma abordagem centrada no ser humano, com base em fortes fundamentos de pesquisa e engenharia. Ele exigirá que as equipes que criam sistemas de IA atendam aos requisitos que correspondem a objetivos específicos de princípios. Essas metas ajudam a envolver os instintos de resolução de problemas de nossas equipes de engenharia e fornecem contexto para os requisitos.

Para cada requisito do Standart de AI responsável, criaremos um conjunto de métodos de implementação que as equipes podem utilizar, incluindo ferramentas, padrões e práticas coletadas de dentro e fora da empresa e refinadas por meio de um processo de maturidade. Esperamos que este seja um esforço interempresarial, plurianual e um dos elementos mais críticos para operacionalizar a IA responsável em toda a empresa. Continuaremos a coletar e integrar feedback à medida que avançamos para a finalização da versão dois do Standart e sua implementação global.

Traçando linhas vermelhas e trabalhando nas áreas cinzas

Na prática dinâmica e matizada da IA ​​responsável, é impossível reduzir todas as complexas considerações sociotécnicas em um conjunto exaustivo de regras predefinidas. Isso nos levou a criar um processo de revisão e supervisão contínua de casos de alto impacto e questões crescentes.

Nosso processo de uso sensível exige que os casos de uso que atendam aos nossos critérios de revisão sejam relatados ao nosso Escritório de IA responsável para triagem e revisão, o que inclui uma deliberação quando não há precedente existente para se basear. Desde julho de 2019, processamos mais de duzentas análises de casos de uso, incluindo um aumento nas análises desde março de 2020, à medida que mais equipes e clientes da Microsoft buscavam usar tecnologias de IA em meio a aplicativos e oportunidades com dados de aproveitamento e métodos de IA para mitigar os desafios com a Covid- 19

Esse processo de revisão de usos sensíveis nos ajudou a navegar pelas áreas cinzentas que são inevitavelmente encontradas e, em alguns casos, leva a novas linhas vermelhas. Os resultados do processo incluem nossas oportunidades cada vez menores de construir e implantar aplicativos de IA específicos, porque não estávamos confiantes de que poderíamos fazer isso de uma forma que sustentasse nossos princípios. Por exemplo, o presidente da Microsoft, Brad Smith, falou publicamente sobre como, por meio de nosso processo de revisão de usos sensíveis, determinamos que o uso em tempo real de reconhecimento facial por um departamento de polícia local da Califórnia, em câmeras usadas no corpo e câmeras de painel em cenários de patrulha, era prematuro, e ele compartilhou o fato de que recusamos o negócio. Além de navegar pelos desafios técnicos apresentados pelo reconhecimento facial, operando em um ambiente não controlado, nosso processo de revisão de usos sensíveis nos ajudou a formar a visão de que era necessário haver uma conversa na sociedade sobre o uso do reconhecimento facial e que leis precisavam ser estabelecidas. Assim, uma linha vermelha foi desenhada para este caso de uso já em 2018.

Ao trabalhar as complexidades de vários outros casos, também passamos a apreciar a importância de três aprendizados-chave. Em primeiro lugar, nos aprofundando nos detalhes dos casos de uso, conseguimos entender e articular seus diferentes perfis de risco, como o impacto na falha e uso indevido nas partes interessadas, e a prontidão da tecnologia para o caso de uso específico. Em segundo lugar, aprendemos as funções importantes que o benchmarking e os testes operacionais desempenham, ajudando a garantir que os sistemas de IA atendam bem às partes interessadas e atendam aos padrões de qualidade não apenas em laboratórios, mas também no mundo real. E, terceiro, aprendemos como precisamos nos comunicar com nossos clientes para capacitá-los a implantar seus sistemas de forma responsável.

Esses aprendizados ajudaram a informar novas práticas na Microsoft. Por exemplo, desenvolvemos Transparency Notes para ajudar as equipes a comunicar os propósitos, recursos e limitações de um sistema de IA para que nossos clientes possam entender quando e como implantar nossas tecnologias de plataforma. As notas de transparência preenchem a lacuna entre a documentação técnica e de marketing, comunicando proativamente as informações que nossos clientes precisam saber para implantar a IA de maneira responsável. Nosso Face API Transparency Note foi nossa primeira tentativa nesta nova prática, e agora temos um número crescente de Transparency Notes sendo preparados em nossas ofertas de plataforma. Vemos sinergias entre nossas notas de transparência e outros esforços do setor, como Model Cards, Datasheets for Dataset, e AI FactSheets, e temos o prazer de desempenhar um papel ativo na iniciativa ABOUT ML da Partnership on AI, para desenvolver os artefatos e processos para documentação de IA responsável.

Evoluindo nossa mentalidade e fazendo perguntas difíceis

Hoje, entendemos que é extremamente importante que nossos funcionários pensem de forma holística sobre os sistemas de IA que escolhemos construir. Como parte disso, todos nós precisamos pensar profundamente e levar em conta os impactos sociotécnicos. É por isso que desenvolvemos treinamento e práticas para ajudar nossas equipes a construir a musculatura necessária para fazer perguntas básicas, como “Por que estamos construindo este sistema de IA?” e “A tecnologia de IA no núcleo deste sistema está pronta para esta aplicação?”

Em 2020, nosso treinamento obrigatório de introdução à IA responsável ajudou mais de 145.000 funcionários a aprender o processo de uso sensível, o padrão de IA responsável e os fundamentos de nossos princípios de IA.

Além disso, apresentamos o Envision AI, um workshop e prática aplicada para a conclusão de avaliações de impacto. Desenvolvido por nossa equipe do Project Tokyo e pelo Office of Responsible AI, o Envision AI conduz os participantes por cenários reais que surgiram enquanto nossa equipe do Project Tokyo estava imersa no projeto de uma abordagem para a tecnologia de agente pessoal inteligente. Por meio de exercícios interativos, os participantes aprendem sobre IA centrada no ser humano e a mentalidade que ela exige, e experimentam usar os tipos de ferramentas disponíveis para pensar sistematicamente sobre os impactos de uma tecnologia em um amplo conjunto de pessoas. Indivíduos e equipes aplicam isso diretamente à tarefa de conduzir uma avaliação de impacto, que é exigida em nosso padrão de IA responsável. Como é a norma para nosso trabalho de IA responsável, construímos o workshop usando uma abordagem de teste e aprendizagem iterativa e orientada por pesquisa, e fomos encorajados pelo feedback que recebemos. Estamos no processo de escalar o Envision AI para mais equipes na Microsoft e para grupos fora da empresa.

O tipo de mudança de mentalidade que estamos orientando envolve um processo contínuo de diálogo, integração e reforço. Às vezes, nossas equipes na Microsoft passaram por momentos estimulantes que aceleraram o progresso, como a triagem do relatório do cliente de um sistema de IA que se comporta de maneira inaceitável. Ao mesmo tempo, também vimos equipes se perguntando se ser “responsável” será limitante, apenas para perceber mais tarde que uma abordagem centrada no ser humano para IA resulta não apenas em um produto responsável, mas em um produto melhor em geral.

Pioneirismo em novas práticas de engenharia

A privacidade e a experiência do GDPR em particular, nos ensinou a importância de sistemas e ferramentas de engenharia para implementar uma nova iniciativa em escala e garantir que as principais considerações sejam incorporadas ao design.

Como implementamos nosso programa de IA responsável em toda a empresa, a existência de sistemas e ferramentas de engenharia para ajudar a cumprir nossos compromissos de IA responsável tem sido uma prioridade para nossas equipes. Embora o ferramental – particularmente em seu sentido mais técnico – não seja capaz de realizar o trabalho de pensamento profundo e centrado no ser humano que precisa ser realizado durante a concepção de sistemas de IA, pensamos que é importante desenvolver ferramentas, padrões e práticas repetíveis sempre que possível para que o criativo pensamento de nossas equipes de engenharia pode ser direcionado para os desafios mais novos e únicos, não para reinventar a roda. Sistemas e ferramentas integrados também ajudam a impulsionar a consistência e garantir que a IA responsável faça parte da maneira cotidiana de trabalho de nossas equipes de engenharia.

Em reconhecimento a essa necessidade, estamos embarcando em uma iniciativa para construir a “estrada pavimentada” para IA responsável na Microsoft – conjunto de ferramentas, padrões e práticas que ajudam as equipes a integrar facilmente os requisitos de IA responsável em suas práticas de desenvolvimento diárias. AzureML serve como base para essa estrada pavimentada, aproveitando as primeiras integrações de nossas ferramentas de código aberto, Fairlearn e InterpretML, para que nossos clientes também se beneficiem de nosso desenvolvimento de sistemas e ferramentas de engenharia.

Aumentando nossos esforços para desenvolver IA de maneira responsável

À medida que olhamos para o futuro, vamos nos concentrar em três coisas: primeiro, aplicar nossos princípios de forma consistente e sistemática, por meio da implementação contínua de nosso Padrão de IA Responsável; segundo, o avanço do estado da arte da IA responsável por meio de incubações de pesquisa para prática e novos sistemas e ferramentas de engenharia; terceiro, continuar a construir uma cultura de IA responsável em toda a empresa.

Temos plena consciência de que, à medida que a adoção de tecnologias de IA se acelera, novos e complexos desafios éticos surgirão. Embora reconheçamos que não temos todas as respostas, os blocos de construção de nossa abordagem para IA responsável na Microsoft são projetados para nos ajudar a ficar à frente desses desafios e implementar uma abordagem deliberada e baseada em princípios. Continuaremos a compartilhar o que aprendemos e agradecemos as oportunidades de aprender com outras pessoas.

Fonte: news.microsoft.com

Integre TI - Integre Hardware, Software e Serviços.