top of page

A Declaração de Bletchley dos países participantes da Cúpula de Segurança da IA



A Inteligência Artificial ( IA ) apresenta enormes oportunidades globais: tem potencial para transformar e melhorar o bem-estar humano, a paz e a prosperidade. Para concretizar isto, afirmamos que, para o bem de todos, a IA deve ser concebida, desenvolvida, implantada e utilizada, de uma forma que seja segura, de forma a ser centrada no ser humano, confiável e responsável. Saudamos os esforços da comunidade internacional até agora para cooperar em matéria de IA para promover o crescimento económico inclusivo, o desenvolvimento sustentável e a inovação, para proteger os direitos humanos e as liberdades fundamentais e para promover a confiança do público nos sistemas de IA para concretizar plenamente o seu potencial.


Os sistemas de IA já estão implantados em muitos domínios da vida quotidiana, incluindo habitação, emprego, transportes, educação, saúde, acessibilidade e justiça, e é provável que a sua utilização aumente. Reconhecemos que este é, portanto, um momento único para agir e afirmar a necessidade do desenvolvimento seguro da IA ​​e de que as oportunidades transformadoras da IA ​​sejam utilizadas para o bem e para todos, de forma inclusiva nos nossos países e a nível global. Isto inclui serviços públicos como a saúde e a educação, a segurança alimentar, a ciência, a energia limpa, a biodiversidade e o clima, para concretizar o gozo dos direitos humanos e para reforçar os esforços para a consecução dos Objectivos de Desenvolvimento Sustentável das Nações Unidas.


Paralelamente a estas oportunidades, a IA também apresenta riscos significativos, inclusive nos domínios da vida quotidiana. Para esse fim, saudamos os esforços internacionais relevantes para examinar e abordar o impacto potencial dos sistemas de IA em fóruns existentes e outras iniciativas relevantes, e o reconhecimento de que a proteção dos direitos humanos, a transparência e a explicabilidade, a justiça, a responsabilização, a regulamentação, a segurança, a adequação é necessário abordar a supervisão humana, a ética, a mitigação de preconceitos, a privacidade e a proteção de dados. Observamos também o potencial de riscos imprevistos decorrentes da capacidade de manipular conteúdo ou gerar conteúdo enganoso. Todas estas questões são extremamente importantes e afirmamos a necessidade e urgência de abordá-las.


Riscos específicos de segurança surgem na “fronteira” da IA , entendida como sendo aqueles modelos de IA de uso geral altamente capazes , incluindo modelos básicos, que poderiam executar uma ampla variedade de tarefas - bem como IA restrita específica relevante que poderia exibir capacidades que causam danos - que correspondem ou excedem as capacidades presentes nos modelos mais avançados de hoje. Riscos substanciais podem surgir do potencial uso indevido intencional ou de problemas de controle não intencionais relacionados ao alinhamento com a intenção humana. Estas questões devem-se, em parte, ao facto de essas capacidades não serem totalmente compreendidas e, portanto, serem difíceis de prever. Estamos especialmente preocupados com estes riscos em domínios como a cibersegurança e a biotecnologia, bem como onde os sistemas de IA de fronteira podem amplificar riscos como a desinformação. Existe potencial para danos graves, até mesmo catastróficos, deliberados ou não intencionais, decorrentes das capacidades mais significativas destes modelos de IA . Dada a rápida e incerta taxa de mudança da IA , e no contexto da aceleração do investimento em tecnologia, afirmamos que é especialmente urgente aprofundar a nossa compreensão destes riscos potenciais e das ações para os enfrentar.


Muitos riscos decorrentes da IA ​​são de natureza inerentemente internacional e, por isso, são mais bem abordados através da cooperação internacional. Resolvemos trabalhar juntos de forma inclusiva para garantir uma IA centrada no ser humano, confiável e responsável que seja segura e apoie o bem de todos através de fóruns internacionais existentes e outras iniciativas relevantes, para promover a cooperação para enfrentar a ampla gama de riscos colocados por IA . Ao fazê-lo, reconhecemos que os países devem considerar a importância de uma governação e abordagem regulamentar pró-inovação e proporcionada que maximize os benefícios e tenha em conta os riscos associados à IA . Isto poderia incluir a elaboração, quando apropriado, de classificações e categorizações de risco com base nas circunstâncias nacionais e nos quadros jurídicos aplicáveis. Notamos também a relevância da cooperação, quando apropriado, em abordagens como princípios comuns e códigos de conduta. No que diz respeito aos riscos específicos mais prováveis ​​encontrados em relação à IA de fronteira, decidimos intensificar e sustentar a nossa cooperação, e ampliá-la com outros países, para identificar, compreender e, conforme apropriado, agir, através de fóruns internacionais existentes e outras iniciativas relevantes, incluindo futuras Cúpulas Internacionais de Segurança de IA .


Todos os intervenientes têm um papel a desempenhar na garantia da segurança da IA : as nações, os fóruns internacionais e outras iniciativas, as empresas, a sociedade civil e o meio académico terão de trabalhar em conjunto. Observando a importância da IA ​​inclusiva e de colmatar o fosso digital, reafirmamos que a colaboração internacional deve esforçar-se por envolver e envolver uma ampla gama de parceiros, conforme apropriado, e acolhemos com agrado abordagens e políticas orientadas para o desenvolvimento que possam ajudar os países em desenvolvimento a reforçar a capacitação da IA e alavancar o papel facilitador da IA ​​para apoiar o crescimento sustentável e colmatar a lacuna de desenvolvimento.


Afirmamos que, embora a segurança deva ser considerada em todo o ciclo de vida da IA , os intervenientes que desenvolvem capacidades de IA de ponta, em particular os sistemas de IA que são invulgarmente poderosos e potencialmente prejudiciais, têm uma responsabilidade particularmente forte em garantir a segurança destes sistemas de IA , nomeadamente através de sistemas para testes de segurança, por meio de avaliações e por outras medidas apropriadas. Encorajamos todos os intervenientes relevantes a proporcionarem transparência e responsabilização adequadas ao contexto nos seus planos para medir, monitorizar e mitigar capacidades potencialmente prejudiciais e os efeitos associados que possam surgir, em particular para prevenir a utilização indevida e problemas de controlo, e a amplificação de outros riscos.

No contexto da nossa cooperação, e para informar a ação a nível nacional e internacional, a nossa agenda para abordar o risco fronteiriço da IA ​​centrar -se-á em:

  • identificar riscos de segurança da IA ​​de preocupação partilhada, construir uma compreensão científica partilhada e baseada em evidências destes riscos, e sustentar essa compreensão à medida que as capacidades continuam a aumentar, no contexto de uma abordagem global mais ampla para compreender o impacto da IA ​​nas nossas sociedades .


  • construir as respectivas políticas baseadas em riscos em nossos países para garantir a segurança à luz de tais riscos, colaborando conforme apropriado, embora reconhecendo que nossas abordagens podem diferir com base nas circunstâncias nacionais e nos quadros jurídicos aplicáveis. Isto inclui, juntamente com uma maior transparência por parte dos intervenientes privados, o desenvolvimento de capacidades de IA de ponta , métricas de avaliação adequadas, ferramentas para testes de segurança e o desenvolvimento de capacidades relevantes do setor público e de investigação científica.

Na prossecução desta agenda, decidimos apoiar uma rede internacionalmente inclusiva de investigação científica sobre segurança de IA de fronteira que englobe e complemente a colaboração multilateral, plurilateral e bilateral existente e nova, nomeadamente através de fóruns internacionais existentes e outras iniciativas relevantes, para facilitar a prestação de a melhor ciência disponível para a formulação de políticas e o bem público.


Em reconhecimento do potencial transformador positivo da IA , e como parte da garantia de uma cooperação internacional mais ampla em matéria de IA , decidimos manter um diálogo global inclusivo que envolva os fóruns internacionais existentes e outras iniciativas relevantes e contribua de forma aberta para discussões internacionais mais amplas, e continuar a investigação sobre a segurança da IA ​​de fronteira para garantir que os benefícios da tecnologia possam ser aproveitados de forma responsável para o bem e para todos. Esperamos nos encontrar novamente em 2024.


Os países representados foram:

  • Austrália

  • Brasil

  • Canadá

  • Chile

  • China

  • União Europeia

  • França

  • Alemanha

  • Índia

  • Indonésia

  • Irlanda

  • Israel

  • Itália

  • Japão

  • Quênia

  • Reino da Arábia Saudita

  • Holanda

  • Nigéria

  • As Filipinas

  • República da Coreia

  • Ruanda

  • Cingapura

  • Espanha

  • Suíça

  • Turquia

  • Ucrânia

  • Emirados Árabes Unidos

  • Reino Unido da Grã-Bretanha e Irlanda do Norte

  • Estados Unidos da América

As referências a “governos” e “países” incluem organizações internacionais que actuam de acordo com as suas competências legislativas ou executivas.

Comentários


bottom of page