fbpx

Julho de 2020

Os robôs sabem as respostas?

Cuidados e precauções para uso da tecnologia

A inteligência artificial avança e desperta suspeitas, conflitos de privacidade e uso indevido de dados e desconfiança em seu rastro. A capacidade das novas tecnologias em comprovarem suas previsões e novos modelos é a chave para o progresso dessa tecnologia em um futuro próximo. A disciplina conhecida como UX ou “experiência do usuário” chega para revolucionar esse tema. Não se trata mais de o software ser amigável, fácil de usar ou simples de entender. O objetivo é fazer com que seus usuários se apaixonem.

A confiança do usuário nas ferramentas de inteligência artificial (IA) e aprendizado de máquina (ML) despenca à medida que violações irresponsáveis ​​de privacidade e uso indevido de dados continuam a ocorrer. Apesar do crescente escrutínio regulatório para combater essas violações, a consultoria Gartner previu que em 2023 75% das grandes organizações contratarão especialistas forenses em comportamento de IA, privacidade e confiança do cliente para reduzir o risco de marca e reputação.

Vieses com base na raça, sexo, idade ou localização e uma estrutura de dados específica são riscos de longa data no treinamento de modelos de IA. Além disso, algoritmos opacos, como aprendizado profundo, incorporam muitas interações altamente variáveis ​​e implícitas em suas previsões que podem ser difíceis de interpretar. “Novas ferramentas e habilidades são necessárias para ajudar as organizações a identificar essas e outras fontes potenciais de preconceito, criar mais confiança no uso de modelos de IA e reduzir o risco de reputação corporativa e de marca”, disse Jim Hare, vice-presidente de pesquisa. do Gartner. “Mais e mais líderes de dados e análises e diretores de dados (CDOs) estão contratando investigadores forenses e éticos do ML”, observou ele.

Setores como Finanças e Tecnologia da Informação implementam cada vez mais combinações de governança de IA e ferramentas e técnicas de gerenciamento de risco para controlar e mitigar essas ameaças. Organizações como Facebook, Google, Bank of America e NASA incorporam ou já nomearam especialistas em comportamento de IA forense que se concentram em descobrir tendências indesejadas em modelos de IA antes de serem implementados, o que os validam durante a fase de desenvolvimento e eles continuam a monitorá-los assim que entram em produção, visto que um viés inesperado pode ser introduzido devido à divergência entre o treinamento e os dados do mundo real. “Embora o número de organizações que contratam investigadores forenses e éticos de ML continue pequeno, ele irá se acelerar nos próximos cinco anos”, estimou Hare.

Os fornecedores de plataformas comerciais de IA e ML estão adicionando recursos para gerar automaticamente explicações de modelos de linguagem natural. Existem também tecnologias de código aberto, como Local Interpretable Model Agnostic Explanations (LIME), que procuram por discriminação inadvertida antes de serem integradas aos modelos. Essas e outras inovações estão se tornando cada vez mais úteis para os pesquisadores de IA examinarem a “influência dos dados” de variáveis ​​sensíveis, como idade, sexo ou raça, entre outras variáveis ​​em um modelo. “Eles são capazes de medir a correlação que as variáveis ​​têm entre si para ver se estão distorcendo o modelo e seus resultados”, explicou Hare.

Os líderes de dados e análises e CDOs não estão imunes a problemas relacionados à governança deficiente e erros de inteligência artificial.

“Eles devem tornar a ética e a governança parte das iniciativas de IA e construir uma cultura de uso responsável, confiança e transparência. É um ótimo começo para promover a diversidade em equipes de IA, dados e algoritmos e aumentar as habilidades das pessoas ”, recomendou Hare. “Os líderes de dados e análises também devem estabelecer responsabilidade para determinar e implementar os níveis de confiança e transparência de dados, algoritmos e resultados para cada caso de uso. Eles precisam incluir uma avaliação das características explicativas da IA ​​ao avaliar análises, inteligência de negócios, ciência de dados e plataformas de ML ”, concluiu o consultor do Gartner.

“75% das maiores organizações do mundo empregarão especialistas forenses em comportamento de IA, privacidade e experiência do usuário até 2023”

Garter, 2020

MOTIVOS PARA MELHORES RESPOSTAS

Por que os desenvolvedores de ferramentas de IA devem explicar e justificar suas previsões e o uso de modelos específicos para que os humanos com quem eles interagem possam aprender e aplicá-los?

Para Daniel Yankelevich, diretor de aceleração de negócios digitais (ADN) da Practia, há três razões
fundamental:

• A necessidade de convencer. “Pedir que os modelos cognitivos em geral sejam aceitos pelas pessoas que não conseguem se explicar é exigir demais. Para ganhar confiança e serem aceitos, eles devem ser capazes de se explicar. Há exemplos que vão desde aspiradores de pó que se movem por conta própria e começam a detalhar por que emperram ou porque algo aconteceu até modelos que definem se uma pessoa vai ser aceita ou não ”.

• Os aspectos jurídicos. “Nos Estados Unidos, está acontecendo muita coisa que alguns juízes querem explicações quando alguém diz ‘isso é discriminação. No final da pontuação, somos todos hispânicos. ‘ Se você não sabe explicar as questões do preconceito, o problema é muito maior ”.

• A busca pelo aprimoramento dessas ferramentas.
“Há uma convicção na comunidade de pesquisa de IA de que os modelos que estão começando a ser explicados permitirão a geração de mais e melhor inteligência”.

“Os responsáveis e líderes devem fazer a ética a da governança parte das iniciativas de IA para uso de dados e análises, criando uma cultura de uso responsável, confiável e transparente.

Gartner, 2020

EQUIPES INTERDISCIPLINARES

Existe uma tensão no desenvolvimento e implementação de modelos de IA. Por um lado, existem técnicos e cientistas de dados que escolhem um para realizar uma tarefa e privilegiam aquele com a menor taxa de erro. Por outro lado, aqueles que realizam a tarefa onde o modelo é aplicado preferem algo mais concreto do que a solução globalizante proposta pelo cientista de dados.

“Prefiro ter mais erros e entender mais por que ele faz as coisas que faz, para depois eu poder ir, mostrar a um terceiro e que eles tenham a possibilidade de auditar”, diz Yankelevich. Por exemplo, pode acontecer que uma rede neural dê um bom resultado. “De repente o erro cai muito e não sei por que isso acontece, não dá para explicar. Isso porque ele está fazendo algo estranho, algo que não quero que ele faça. O facto de ter um modelo auditável, que se explica e se compreende, tem valor para o negócio ”, afirma o director de DNA da Practia, embora alerte que“ pôr a funcionar, talvez para o técnico ou para o cientista de dados a precisão diminui, quando na verdade atende mais ao negócio ”, conclui.

O especialista enfatiza que “quem sabe muito, seja estatística, aprendizado de máquina ou outros assuntos técnicos, tem um‘ orgulho ’de fazer um modelo com o mínimo de erro possível. Eles adoram ser parabenizados por isso. Mas, do ponto de vista da explicação do negócio, há outras coisas importantes.
Por exemplo, para convencer as pessoas a usá-lo, para poder editá-lo… elementos que têm um valor que não é numérico ”.

Por exemplo, uma operadora de telefonia investiga por que uma pessoa parou de pagar sua assinatura. Em alguns casos, a resposta é uma promoção de competição para a qual o cliente mudou de fornecedor. Outros, é porque o serviço é ruim, ou o usuário se mudou para outro país ou morreu ou estava desempregado. “Seu modelo nunca vai capturar isso. Sempre digo que você deve desconfiar de modelos que apresentam um índice de erro excessivamente baixo.
Se acerta muito, é porque algo estranho acontece ”, avisa Yankelevich.

“Você deve ter cuidado com os modelos que apresentam um nível de erro excessivamente baixo. Se você acertar muito, é porque algo estranho está acontecendo. “

Daniel Yankelevich

Diretor, Practia

Por esse motivo, é conveniente que os modelos de IA e sua interpretação sejam gerados dentro de uma estrutura interdisciplinar onde os cientistas de dados devem interagir com outras pessoas na organização, como profissionais de negócios, jurídico, de gestão ou de recursos humanos, que Ajude a convencer os funcionários a adotar o modelo.

PROCESSO DE IMPLANTAÇÃO

Qual seria um processo que as organizações podem adotar para interpretar os modelos? Para Yankelevich, “a chave é entender como as competências são compreendidas na construção do melhor modelo”. Para iniciar este processo, deve-se partir de uma análise do contexto e do negócio em que será utilizado. “Existem inúmeras questões importantes, como qual é a pergunta comercial que estamos respondendo ou quais são as ações que serão tomadas em um caso ou outro”, disse Yankelevich.

“Nem todos os erros têm o mesmo custo. Não é a mesma coisa errar ao não atribuir um crédito a quem o merece do que dá-lo a quem não o merece. Toda essa análise do negócio é algo que é feito antes ou em paralelo ou com a equipe multidisciplinar a que nos referimos, algo que é fundamental ser levantado desde o início do projeto ”, alerta.

Então, técnicas que, embora relativamente novas, já estão comprovadas, como o SHAP (Shapley Additive Explanations) ou o já citado LIME, devem ser incorporadas, para então focar na tarefa de como o modelo será explicado.

“No desenvolvimento do aprendizado de máquina, vimos muitos estágios. O atual é dominado por redes neurais. A capacidade atual de armazenamento e processamento é o que há alguns anos chamaríamos de “infinita”.

Com essa base material, as redes neurais provaram ser mais flexíveis e poderosas, com um tempo de desenvolvimento muito menor do que a visão de aprendizado de máquina baseada em regras, que foi importante nos estágios anteriores ”, diz Juan V. Echagüe, diretor da Pesquisa e Desenvolvimento da Practia.

Echagüe esclarece que, em um imenso número de domínios, onde a IA já opera, ninguém pede ou espera uma explicação ou justificativa, pois o modelo foi integrado ao senso comum. Por exemplo, sistemas que ligam ou desligam lâmpadas de iluminação doméstica ou de escritório ou o foco automático de câmeras.

No entanto, a necessidade de dar conta do funcionamento dos sistemas de IA aumentará e será exigida quando envolver atividades ou efeitos relevantes, como carros autônomos ou assistência médica automática aos pacientes. Resultado: conforme os robôs ganham maior responsabilidade e estão em contato com decisões de maior risco, os robôs precisarão cada vez mais justificar suas ações.

56% das organizações mundiais que hoje implementam soluções de inteligência artificial (IA) o fazem para enriquecer o processo de tomada de decisão e para a gestão interna. Nos próximos três anos, o principal motivador será a melhoria da experiência do cliente.

Gartner, 2020

Practia.global, Todos os direitos reservados, 2020

0
    0
    Meu Carrinho
    Carrinho vazioRetornar para o site