A Bosch estabeleceu “limites” éticos para o uso da Inteligência Artificial (IA). Até 2025, pretende-se que todos os produtos Bosch contenham IA ou tenham sido desenvolvidos recorrendo a esta tecnologia. O objectivo é que os produtos baseados em IA sejam seguros, consistentes e explicáveis.
O código de ética para IA da Bosch estipula que a Inteligência Artificial não deve tomar quaisquer decisões sobre seres humanos, sem que esse processo esteja sujeito a alguma forma de supervisão humana.
Em vez disso, a Inteligência Artificial deve servir as pessoas como uma ferramenta. Assim sendo, há três denominadores comuns no que aos produtos da Bosch diz respeito: nos produtos baseados em IA, os seres humanos devem manter o controlo sobre quaisquer decisões que a tecnologia tome.
Na primeira abordagem (human-in-command), a Inteligência Artificial é puramente uma ajuda – por exemplo, no apoio à decisão através de aplicações, onde a IA pode auxiliar as pessoas a classificar itens como objectos ou organismos.
Na segunda abordagem (human-in-the-loop), um sistema inteligente autónomo toma decisões que os humanos podem, no entanto, substituir a qualquer momento. Exemplo disso é a condução parcialmente autónoma, em que o condutor humano pode intervir directamente nas decisões.
A terceira abordagem (human-on-command) diz respeito a tecnologias inteligentes como sistemas de travagem de emergência. Aqui, os engenheiros definem determinados parâmetros durante o processo de desenvolvimento. Nestes casos, não há margem para intervenção humana no processo de tomada de decisão.
Os parâmetros fornecem a base sobre a qual a IA decide se deseja activar o sistema ou não. Engenheiros testam retrospectivamente se o sistema permaneceu dentro dos parâmetros definidos. Se necessário, estes parâmetros podem ser ajustados.
A Bosch espera também que este seu código de ética em IA contribua para o debate público sobre este tema.