Assegurar a ética e a responsabilidade no uso das novas tecnologias é fundamental

Desenvolvimento responsável e ético da Inteligência Artificial

A crescente aplicação da Inteligência Artificial no mundo dos negócios torna essencial a adoção de princípios sólidos que assegurem a ética e a responsabilidade no uso dessas novas tecnologias. Quem faz o alerta é Kriti Sharma. Escolhida para integrar a lista dos “30 abaixo dos 30” da revista Forbes, a executiva de apenas 29 anos é vice-presidente global de Bots e Inteligência Artificial da Sage.

Com base nesse pensamento, a Sage estabeleceu cinco princípios, que passam a nortear toda atuação da companhia nesse segmento, agora reunidos no documento “A Ética do Código: 5 princípios éticos para desenvolver Inteligência Artificial para negócios”.

São eles:

1. IA deve refletir a diversidade de seus usuários

Precisamos criar inteligência artificial que seja diversa em sua origem. Como comunidade industrial e tecnológica, temos de desenvolver mecanismos efetivos para barrar o preconceito e qualquer sentimento adverso que possam ser assimilados pela IA, de forma a assegurar que ela não irá perpetuar estereótipos. A não ser que tenhamos equipes, bases de dados e design cuja natureza seja a diversidade, estamos sob risco de repetir a desigualdade que marcou revoluções passadas.

2. IA deve ser responsável, assim como seus usuários

Nós aprendemos que os usuários estabelecem um relacionamento com a IA e começam a confiar na mesma após algumas poucas interações. Com a confiança, vem a responsabilidade. A IA precisa ser responsabilizada por suas ações e decisões, como se fosse um ser humano. Não se pode permitir que a tecnologia fique inteligente ao ponto de não ser responsável. Não aceitamos esse tipo de comportamento de outras profissões especializadas. Então, por que a tecnologia deveria ser a exceção?

3. Recompense a IA por “mostrar o seu funcionamento”

Qualquer sistema de IA que aprenda com exemplos ruins pode acabar se tornando socialmente inadequado – temos que lembrar que a maior parte da IA de hoje não tem conhecimento do que está dizendo. Somente a ampla audição e a aprendizagem de diversas bases de dados resolverão isso.

Uma das abordagens é desenvolver um mecanismo de recompensa ao treinar a IA. As medidas de aprendizagem de reforço devem ser desenvolvidas não apenas com base no que AI ou robôs fazem para alcançar um resultado, mas também sobre como a IA e robôs se alinham com os valores humanos para atingir esse resultado particular.

4. O jogo da IA deve ser igual para todos

Tecnologia de voz e robôs sociais fornecem novas soluções de acesso, especificamente para usuários desfavorecidos por problemas de visão, dislexia e mobilidade limitada. Nossa comunidade empresarial tecnológica deve acelerar o desenvolvimento desses recursos a fim de oferecer condições igualitárias e ampliar os talentos que temos, tanto nas profissões da área contábil quanto da tecnológica.

5. IA substitui. Mas também deve criar.

O melhor caso de uso da IA é automação – atendimento ao cliente, fluxo de trabalho e processos baseados em regras são os panoramas perfeitos nos quais a IA se revela.

Desenvolvimento responsável e ético da Inteligência Artificial

A IA aprende mais rápido que os humanos e é muito boa em tarefas repetitivas, do dia-a-dia. E, no longo prazo, é mais barata que os humanos. Haverá novas oportunidades criadas pela robotização de tarefas e temos que treinar as pessoas para essa perspectiva – permitindo que elas possam se concentrar naquilo em que são boas, construindo relacionamentos e cuidando dos clientes. Sem jamais esquecer a necessidade de empatia humana nas profissões centrais como aplicação da lei, cuidados, proteção e complexas tomadas de decisão.

Kriti explica que o estabelecimento de critérios claros nesse sentido mostra-se fundamental para proteger usuários e garantir segurança e confiabilidade dessas ferramentas. É ainda um caminho para que essas soluções sejam inclusivas e expressem a diversidade de seus usuários.