3 novas categorias de trabalho que a AI não ameaça


08 abr 2017

Talvez o assunto “mais quente” nos dias de hoje seja até que ponto os robôs e a inteligência artificial (AI) irão substituir os seres humanos no ambiente de trabalho – e com que rapidez as mudanças se desenrolarão.

Durante décadas, a tecnologia vem substituindo empregos de nível médio, principalmente em economias avançadas. No entanto, o ritmo acelerou, não apenas nas fábricas automotivas, mas também em escritórios de advocacia, de contabilidade, bancos e mercados financeiros.

Alguns economistas, como Erik Brynjolfsson e Andrew McAfee, do MIT, argumentam que, embora eliminem empregos, a tecnologia também abrirá caminho para novos.

Um novo artigo de Acemoglu e Restrepo levanta algumas preocupações. Até agora, eles dizem, os novos postos de trabalho pouco contribuíram para compensar o número de perdas de emprego na indústria transformadora.

Para pessoas sem diploma universitário, isso é uma má notícia – o número de robôs industriais está crescendo. Mas também é preocupante para pessoas com níveis mais elevados de habilidade. Não há garantia de que os novos empregos surjam onde as perdas ocorreram, como também não há garantia de que trabalhos que são considerados “seguros” sejam seguros por muito tempo.

A ameaça de que a automação irá liminar uma ampla faixa de empregos, em toda a economia mundial, é algo percebido fortemente pelas pessoas. Porém, à medida que os sistemas de AI tornam-se cada vez mais sofisticados, poucos se dão conta de que novos trabalhos irão surgir muito diferentes daqueles que existem hoje.

O MIT SMR publicou no dia 23 de março, uma matéria sobre um estudo feito pela Accenture com mais de 1.000 grandes empresas espalhadas pelo mundo, as quais já utilizam ou estão testando sistemas de AI e de aprendizado de máquina.

James Wilson, Paul R. Daugherty e Nicola Morini-Bianzino, todos três da Accenture, identificaram o surgimento de categorias inteiras de novos trabalhos “exclusivamente humanos”, e eles explicam isso nessa matéria do MIT.

Segundo eles, essas novas funções não substituem antigas funções. Elas são novas, exigindo habilidades e treinamento que não têm precedentes.

Mais especificamente, a pesquisa deles revela três novas categorias de trabalho que vêm na cola da AI: os Trainers, os Explainers e os Sustainers.

Pessoas que estiverem envolvidas nestes papéis irão complementar as tarefas realizadas pela tecnologia cognitiva, assegurando que o trabalho das máquinas seja ao mesmo tempo eficaz e responsável – e que tudo seja justo, transparente e auditável.

Trainers (os que treinam)

Esta primeira categoria de trabalho precisará de pessoas que ensinem os sistemas de AI a operar devidamente – e está função está emergindo rapidamente. Os Trainers ajudam os processadores de linguagem natural e os tradutores de linguagem a cometerem menos erros. Também ensinam os algoritmos AI a imitar comportamentos humanos.

Chatbots de atendimento ao cliente, por exemplo, precisam ser treinados para detectar as complexidades e as sutilezas da comunicação humana. O Yahoo Inc. está tentando ensinar o seu sistema de processamento de linguagem que as pessoas nem sempre querem dizer o que literalmente dizem. Os engenheiros do Yahoo desenvolveram um algoritmo que pode detectar o “sarcasmo” em mídias sociais e sites com uma precisão de pelo menos 80%.

Considere, então, o trabalho do “treinador da empatia” – pessoas que ensinarão os sistemas de AI a demonstrar compaixão. A Kemoko Inc. (Koko), empresa criada pelo MIT Media Lab, desenvolveu um sistema de aprendizagem que pode ajudar assistentes digitais como a Siri da Apple e a Alexa da Amazon a responder perguntas com simpatia e profundidade.

Os “humanos” também estão treinando o algoritmo de Koko a responder mais empaticamente pessoas que, por exemplo, podem estar frustradas por terem perdido a mala de viagem, ou com um produto que compraram e que está com defeito. O objetivo é que o sistema seja capaz de conversar com as pessoas sobre um problema ou uma situação difícil com um nível adequado de compreensão, compaixão e até mesmo humor. Sempre que o Koko responde de forma inadequada, um “trainer humano” ajuda a corrigir essa atitude – e ao longo do tempo, o algoritmo de aprendizado de máquina vai melhorando nas respostas.

Sem não houvesse um trainer de empatia, a Alexa poderia responder às ansiedades do usuário com respostas enlatadas do tipo “Sinto muito ouvir isso” ou “Às vezes, conversar com um amigo pode ajudar.”

Explainers (os que explicam)

A segunda categoria de novos empregos irá preencher a lacuna entre tecnólogos e gestores empresariais. Os Explainers ajudarão a dar clareza à medida que a opacidade dos sistemas AI aumenta.

Muitos executivos estão inseguros e inquietos com a sofisticação crescente dos algoritmos (para muitos é uma caixa preta), especialmente quando esses sistemas recomendam ações que vão contra o convencional.

As empresas que implantarem sistemas avançados de AI precisarão de colaboradores que possam explicar o funcionamento de algoritmos complexos para profissionais não técnicos. Uma dessas pessoas poderia ser responsável por manter qualquer algoritmo responsável por seus resultados, exercendo um papel de “analista forense”:

Quando um sistema cometesse um erro ou quando suas decisões conduzissem a conseqüências negativas não intencionais, esse analista realizaria uma “autópsia” sobre o evento para entender as causas desse comportamento para que, em seguida, fosse corrigido.

Certos tipos de algoritmos, como árvores de decisão, são relativamente simples de explicar. Outros, como robôs de aprendizado de máquina, não são tão fáceis. No entanto, o analista precisa ter o treinamento adequado e habilidades para realizar autópsias detalhadas e explicar seus resultados.

Aqui, técnicas como o Modelo Interpretativo Local – Explicações Agnósticas (LIME), que explica a lógica subjacente e a confiabilidade de uma máquina preditiva, podem ser extremamente úteis. O LIME não se preocupa com os algoritmos de AI utilizados. Na realidade, ele não precisa sequer saber sobre o funcionamento. Para realizar uma autópsia de qualquer resultado, ele faz pequenas alterações nas variáveis ​​de input e observa como elas alteram essa decisão. Com essas informações, o analista pode identificar os dados que levaram a um determinado resultado.

Assim, por exemplo, se um sistema de recrutamento identificou o melhor candidato para uma vaga de trabalho, o analista que utiliza o LIME poderia identificar as variáveis ​​que levaram a essa conclusão (como a educação e o conhecimento profundo em um campo particular) bem como as evidências contra (como a inexperiência em trabalhar em equipes colaborativas). Usando tais técnicas, o analista pode explicar porque alguém foi contratado e outra pessoa não foi. Ele também pode ajudar a esclarecer porque uma campanha de marketing visou apenas um subconjunto de consumidores.

Os Sustainers (os que monitoram)

A última categoria de novos empregos identificados na pesquisa pode garantir que os sistemas de AI operem conforme planejado – e que as conseqüências não intencionais sejam tratadas com a devida urgência.

Na pesquisa, eles descobriram que menos de um terço das empresas têm um alto grau de confiança na imparcialidade e auditabilidade de seus sistemas de AI e menos de metade têm confiança semelhante na segurança desses sistemas. Claramente, essas estatísticas indicam questões fundamentais que precisam ser resolvidas para o uso contínuo de tecnologias de AI, e é aí que os Sustainers vão desempenhar um papel crucial.

Uma das funções mais importantes será o gerente de ética e compliance. Ele irá atuar como uma espécie de vigilante e ombudsman para defender as normas, os valores e os costumes humanos – e intervir se, por exemplo, um sistema de AI que faz a aprovação de créditos discriminar pessoas que tenham determinadas profissões ou que estejam em áreas geográficas específicas… Outros preconceitos podem ser mais sutis – por exemplo, um algoritmo de pesquisa que responde apenas com imagens de mulheres brancas quando alguém pergunta “avó amorosa”. Esse gerente pode trabalhar junto com o analista forense de algoritmo (Explainer) para descobrir as razões subjacentes para esses resultados e, realizar as correções necessárias.

No futuro, a AI pode tornar-se mais auto gerida. Mark O. Riedl e Brent Harrison, pesquisadores da Escola de Computação Interativa do Georgia Institute of Technology, desenvolveram um protótipo de AI chamado Quixote que pode aprender ética apenas lendo histórias simples.

Segundo Riedl e Harrison, o sistema é capaz de “reverter” os valores humanos através de histórias sobre como os seres humanos interagem uns com os outros. Quixote aprendeu, por exemplo, porque o roubo não seria uma boa ideia e que o esforço pela eficiência é desejável, exceto quando conflita com outras questões importantes.

Os gerentes de ética e compliance desempenharão um papel crítico no monitoramento, ajudando a garantir o bom funcionamento de sistemas avançados.

Trabalhos sem precedentes e em escala

Os trabalhos descritos aqui não têm precedentes e serão necessários em escala, em todas as indústrias.

Isso colocará uma grande pressão sobre as políticas de formação e desenvolvimento das organizações. Também pode nos levar a questionar muitas suposições que sobre os requisitos educacionais tradicionais para a formação de profissionais.

Treinadores de empatia, por exemplo, podem não precisar de um diploma universitário. Pessoas com ensino médio e que são inerentemente empáticas (uma característica que é mensurável) poderiam aprender as habilidades necessárias.

O efeito de muitas dessas novas funções pode ser a ascensão de uma força de trabalho “sem colarinho” que lentamente substitui os tradicionais empregos de operários de manufatura e de outras profissões”. – H. James Wilson, Paul R. Daugherty e Nicola Morini-Bianzino.

Por outro lado, uma série de novos empregos – como gerentes de ética e compliance – podem exigir um conjunto de habilidades altamente especializadas.

Dessa forma, as organizações já devem considerar a necessidade de treinar uma parte da força de trabalho para funções emergentes “sem colarinho”, e re-imaginar os processos de recursos humanos para atrair, treinar e reter profissionais altamente qualificados cujos talentos terão alta demanda.

Segundo os pesquisadores, tal como acontece com tantas transformações tecnológicas, os desafios são muitas vezes mais humanos do que técnicos.

 

Crédito da Imagem: MIT Sloan Management Review

Deixe seus comentários abaixo


Redação O Futuro das Coisas
Redação O Futuro das Coisas

O Futuro das Coisas é dedicado a trazer conteúdo exclusivo em inovação, tecnologia, educação e medicina numa linguagem divertida e acessível.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Pin It on Pinterest

Share This