Entendendo a ética da IA

Entendendo a ética da IA

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br



Em 2018, Elaine Herzberg foi morta no que se acredita ser a primeira fatalidade de pedestres por um veículo autônomo. O incidente chamou a atenção do mundo e iluminou a ética da IA.

A morte de Elaine Herzberg foi chocante porque levantou questões sobre se poderíamos confiar em Inteligência Artificial (IA) com algo tão importante quanto nossas vidas. Mas o que isso significa para as empresas que desejam explorar essa tecnologia? O Fórum Econômico Mundial (WEF) chama isso de IA responsável e a pesquisa mostrou que as organizações estão cada vez mais preocupadas com as implicações da IA.

Como comentou Angel Gurria, Secretário-Geral da Organização para Cooperação e Desenvolvimento Econômico (OCDE), “para realizar todo o potencial da tecnologia de IA, precisamos de um ingrediente crítico. Esse ingrediente crítico é a confiança. ”

Definindo a ética da IA

Temos testemunhado muita preocupação de Elon Musk, de Tesla, sobre o potencial de danos da IA. A boa notícia é que a IA não está prestes a atingir um estado de inteligência geral – onde as máquinas podem entender e aprender como os humanos – em breve. Enquanto isso, continua sendo uma ferramenta criada por humanos para apoiar a atividade humana.

A IA – especialmente aprendizado de máquina – funciona recebendo entradas de dados, aprendendo algo com os dados e, a partir disso, inferindo algo para fazer previsões.

Isso levanta a questão de como julgamos se uma saída de um sistema de IA é segura e não sucumbirá ao viés ou causará algum dano. Esse é o cerne da ética da IA.

Como o desenvolvedor de IA ensina e ajuda seu veículo autônomo a tomar uma decisão em caso de acidente? A IA deve priorizar a proteção de seus passageiros ou das pessoas fora do veículo?

Leia Também  29 ferramentas para ajudar na redação do seu conteúdo

Determinar se um resultado é eticamente aceitável pode gerar discordâncias razoáveis. Nesse período do COVID-19, médicos, políticos e o público podem discordar da ética em torno das decisões de assistência médica, como priorizar os ventiladores entre os pacientes jovens e não os idosos. Se os humanos podem discordar, como uma IA pode se sair melhor?

Em um ambiente de negócios em que a IA está sendo usada para automatizar processos ou melhorar a experiência do cliente, a ética pode parecer um pouco menos importante. Mas, para todas as organizações, o principal objetivo da IA ​​será fornecer informações que melhorem a tomada de decisões. Portanto, ser capaz de confiar e confiar nessas informações é essencial.

Em um recente relatório de pesquisa da Accenture, mais de 90% das implantações de IA de maior sucesso tiveram foco na ética – em comparação com menos da metade das implantações de menos sucesso.

Questões-chave na ética da IA

Existem muitas questões éticas sobre o impacto social da IA ​​e se você está interessado. Se eu recomendaria o excelente Guia do Mochileiro das Carreiras para a Ética da IA. Por enquanto, vou me concentrar especificamente na ética da criação de soluções de IA em um ambiente de negócios.

Viés

A área de ética que talvez tenha recebido a maior atenção é o viés, quando modelos de dados distorcidos ou preconceitos de desenvolvedores involuntariamente invadem o sistema de IA. Até gigantes como Apple e Goldman Sachs se desentenderam com o Apple Card acusado de viés de gênero. Isso não é surpreendente quando você considera que existem 188 vieses cognitivos diferentes. Seja um preconceito inconsciente do criador do sistema de IA ou um viés embutido no modelo de dados que o sistema usa, os resultados serão que as saídas provavelmente serão injustas, discriminatórias ou simplesmente erradas.

Leia Também  Migração no local para Cloudhub | MuleSoft Blog
cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

Prestação de contas e explicabilidade

Os conceitos de responsabilidade e explicabilidade são bem compreendidos na vida cotidiana. Se você é responsável por algo, deve poder explicar por que isso aconteceu. O mesmo acontece no mundo da IA. É essencial que todas as ações executadas pela IA possam ser totalmente explicadas e auditadas. Tem que poder ser responsabilizado.

Transparência

Para ser responsável, o sistema de IA precisa ser transparente. No entanto, muitas soluções de IA adotam uma abordagem de ‘caixa preta’ que não permite a visibilidade dos algoritmos subjacentes. Isso pode ocorrer porque os algoritmos são incrivelmente complexos, mas geralmente depende do fornecedor que deseja proteger sua própria propriedade intelectual. No entanto, uma nova geração de soluções de IA que adotam código aberto – como o OpenText Magellan – permite que as organizações integrem seus próprios algoritmos e verifiquem a qualidade dos algoritmos com seus próprios dados. Isso também tem o benefício adicional de adotar a criação de código aberto de novos algoritmos, levando a inovações de qualidade mais rápidas e de melhor qualidade.

Garantia de dados

Um ponto chave na criação de sistemas de IA é como você trabalha com os dados – especialmente dados pessoais – usados ​​para preencher seus modelos. O aprendizado de máquina e o aprendizado profundo exigem enormes conjuntos de dados para aprender e melhorar. Quanto mais dados, melhores os resultados ao longo do tempo. No entanto, a legislação de privacidade – como GDPR ou CCPA – impõe novos níveis de responsabilidade às organizações sobre como elas capturam, armazenam, usam, compartilham e relatam os dados pessoais que possuem. Você precisa estar ciente de como e por que está processando os dados e os riscos envolvidos.

Leia Também  Como os consumidores maduros respondem ao email marketing? [Infographic]

Estabelecendo ética em seus recursos de IA

Mesmo se você tiver uma equipe de cientistas de dados experientes em sua organização, muitos dos desafios éticos ainda serão relativamente novos. É uma boa prática estabelecer uma equipe de direção em toda a empresa e estabelecer uma estrutura ética que descreve o que a IA deve fazer, como deve ser criada e quais são os resultados esperados.

O OpenText Professional Services vem trabalhando com organizações em todo o mundo para garantir que elas incorporem – e sigam – uma abordagem ética para o desenvolvimento de seus sistemas de IA. A Harvard Business Review lista a tecnologia, incluindo inteligência artificial, como um dos principais elementos para alcançar uma transformação digital eficaz e bem-sucedida. Podemos ajudar:

  • Conduzir uma avaliação de seus processos, políticas e habilidades atuais de IA
  • Desenvolvimento de estratégias de mitigação de risco para desenvolvimento e implantação de IA
  • Projetando e supervisionando táticas que realizam suas estratégias de mitigação de riscos
  • Desenvolvimento de um programa abrangente de prevenção, gerenciamento de riscos e educação
  • Criando um programa de garantia e monitoramento de qualidade com KPIs estabelecidos
  • Estabelecendo a aparência do sucesso da IA ​​desde o início

A equipe inclui uma ampla gama de especialistas em ética, especialistas em IA e cientistas de dados que podem ajudá-lo a enfrentar com êxito os desafios éticos à medida que a IA é implantada mais profundamente em seus negócios.

Se você deseja saber mais sobre como o OpenText Professional Services pode ajudá-lo a gerenciar o risco ético em sua jornada de IA, visite nosso site.

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br
Luiz Presso
Luiz Presso