EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish

Política de Uso Ético e Responsável de Inteligência Artificial Generativa da LBCA

robo-Ai

AVISO DE PRIVACIDADE LBCA

(em conformidade com o artigo 9º da Lei 13.709/19 – Lei Geral de Proteção de Dados (“LGPD”)

Em relação às atividades da – LBCA Lee, Brock e Camargo Advogados – sociedade de advogados regularmente inscrita na OAB/SP sob o nº 2.940, CNPJ nº 00.793.310/0001-00, com escritório na Rua Dr. Renato Paes de Barros, 618 – 1º e 5º andares – Itaim Bibi – 04530-000 – São Paulo/SP, a seguir identificada Controladora, tratará os seus Dados Pessoais em conformidade com as disposições da legislação sobre proteção de Dados Pessoais, especialmente com a Lei Geral de Proteção de Dados Pessoais (LGPD), e com o presente Aviso de Privacidade.

Introdução

A Inteligência Artificial Generativa (IAG) é uma tecnologia que pode ser utilizada para a criação de textos, imagens, músicas ou vídeos, funcionando por meio de um processo de aprendizado de máquina, no qual um modelo é treinado em um certo conjunto de dados, em que o modelo aprende a gerar novos resultados que sejam semelhantes aos dados em que fora treinado.

A IAG tem o potencial de revolucionar a forma como os profissionais da área jurídica trabalham, mas também traz riscos potenciais para a privacidade e segurança dos usuários e clientes da LBCA. Na prestação de serviços jurídicos, a IAG pode ser utilizada em uma variedade de propósitos, incluindo:

  • Criação de documentos
  • Atividades de gestão
  • Sugestão de estratégias
  • Planos de ação
  • Aprendizados diversos.

A presente política tem como objetivo orientar os profissionais da LBCA sobre o uso ético e seguro da IAG em seus trabalhos. A política enfatiza a importância da proteção de dados pessoais e das informações confidenciais quando utilizada a IAG. Também descreve as melhores práticas e possíveis riscos associados ao uso dessas tecnologias, tanto na advocacia preventiva quanto na contenciosa, na criação de documentos e na interação com clientes, fornecedores ou autoridades públicas.

Compromisso da LBCA

A LBCA está comprometida em utilizar a IAG de maneira ética e responsável. Esta política estabelece diretrizes para o uso apropriado desta tecnologia em nossas operações e serviços prestados a clientes.

Uso Ético

A LBCA utilizará IAG apenas para fins lícitos e benéficos para a sociedade. Não utilizaremos esta tecnologia para disseminar desinformação, prejudicar ou manipular pessoas. Treinaremos os modelos de IA com dados acurados, evitando vieses que possam resultar em discriminação, erro ou injustiça. Seremos transparentes sobre o uso de IAG, informando aos clientes quando essa tecnologia for utilizada na prestação de serviços. Não utilizaremos IA para substituir o julgamento humano em decisões críticas. A tecnologia servirá para complementar e aprimorar o trabalho dos profissionais da LBCA.

Segurança da Informação

Os dados utilizados para treinar ou gerar conteúdo por IA serão mantidos em ambiente seguro, com acesso restrito à equipe autorizada. Modelos de IA e dados de treinamento serão regularmente auditados quanto a vulnerabilidades. Controles rígidos de acesso serão implementados para prevenir vazamento ou uso indevido de dados e modelos de IA.

Relacionamento com Terceiros

Fornecedores de IAG contratados pela LBCA deverão aderir a esta política e ser auditados regularmente.Os clientes serão informados sobre o uso de IA na prestação de serviços e poderão optar por não a utilizar, se assim desejarem. Cláusulas sobre uso ético e responsável de IA serão incluídas em contratos com fornecedores e clientes.

Procedimentos Internos

Treinamentos periódicos sobre ética e uso responsável de IA serão realizados com a equipe LBCA. Um comitê interno sobre ética em IA analisará regularmente o uso desta tecnologia no escritório e atualizará esta política sempre que necessário.Violações à presente política resultarão na ação disciplinar apropriada.Um relatório anual de transparência sobre o uso de IA generativa será publicado pela LBCA.

Cláusulas Contratuais Sugeridas

Para inclusão em contr"O Fornecedor se compromete a desenvolver e disponibilizar os modelos de IA de acordo com as melhores práticas éticas do setor. Os modelos não devem apresentar vieses que resultem em discriminação ou infringir os direitos humanos de qualquer indivíduo ou grupo. O Fornecedor permitirá auditorias periódicas pela LBCA para verificar a conformidade com esta cláusula."Para inclusão em contratos de prestação de serviços jurídicos: "A LBCA poderá utilizar ferramentas de Inteligência Artificial generativa para auxiliar na prestação dos serviços contratados. A LBCA se compromete a informar ao Cliente quando essa tecnologia for empregada e o Cliente poderá optar por não a utilizar, se assim desejar."

Diretrizes Adicionais

Na utilização da IAG, a LBCA e seus colaboradores devem, sempre que possível:

  • Priorizar a transparência e o consentimento esclarecido no uso de IA generativa com clientes e parceiros.
  • Participar de iniciativas do setor jurídico para promover o uso ético e responsável de IA.
  • Contribuir para o debate público e formulação de políticas e regulações sobre o tema.
  • Considerar os potenciais impactos socioeconômicos do uso de IA no setor jurídico e adotar medidas para mitigar efeitos prejudiciais.
  • Promover o letramento em IA entre colaboradores e clientes, aumentando o conhecimento sobre capacidades e limitações.

Essa política busca estabelecer altos padrões éticos para o uso de IA generativa na LBCA. Ela será revisada periodicamente e aprimorada à medida que a tecnologia e suas aplicações continuam evoluindo.

Cuidados

Ao utilizar a IAG, é importante que os profissionais da LBCA sigam as seguintes melhores práticas:

  • Obtenha o consentimento explícito do cliente antes de usar a IAG nos trabalhos.
  • Use a IAG apenas para fins específicos e legítimos.
  • Mantenha os dados pessoais e informações confidenciais do cliente sempre seguros.
  • Monitore regularmente a IAG para detectar possíveis riscos à privacidade e segurança dos titulares de dados.

Riscos Potenciais

O uso da IAG traz riscos potenciais para a privacidade e segurança dos titulares de dados:

  • A IAG pode ser usada para criar deepfakes, que são vídeos ou áudios falsos com o propósito de simular falas ou atos que a verdadeira pessoa em questão nunca disse ou realizou. Os deepfakes podem ser utilizados para prejudicar a reputação da vítima ou para cometer fraudes em seu nome.
  • A IAG pode ser utilizada para roubar dados pessoais, tais como números de cartão de crédito ou senhas. Esses dados, por sua vez, podem ser usados para o cometimento de fraudes ou outros crimes.
  • A IAG pode ser utilizada para a criação de conteúdo ofensivo ou ilícito, tais como como discursos de ódio, incitação à violência ou material de abuso sexual infantil.

Implicações Éticas e Jurídicas

O uso da IAG também traz diversas implicações, tais como:

  • Os utilizadores podem ser responsabilizados pelos danos decorrentes do uso indevido ou ilícito da IAG.
  • A IAG pode ser utilizada, mesmo que de forma culposa, para violar a LGPD e demais normas de proteção de dados.
  • A IAG pode ser utilizada para o cometimento de fraudes ou crimes em geral.

Diretrizes Gerais para o Tratamento Seguro e Ético de Dados Pessoais e Informações confidenciais

Os profissionais da LBCA devem seguir as seguintes diretrizes para o manuseio seguro e ético de dados pessoais e informações confidenciais no uso da IAG:

  • Obtenha o consentimento explícito do cliente antes de usar a IAG para processar seus dados pessoais.
  • Use a IAG apenas para fins específicos e legítimos.
  • Mantenha os dados pessoais e informações confidenciais do cliente seguros e protegidos.
  • Acompanhe regularmente a IAG para detectar possíveis riscos à privacidade e segurança dos clientes, colaboradores e terceiros.

Regras Gerais de Uso de IAG na LBCA

1. Proteção de dados pessoais e informações confidenciais: A LBCA e seus colaboradores têm plena ciência que, embora a IAG possa gerar resultados impressionantes, ela não compreende verdadeiramente o conteúdo que disponibiliza e, por vezes, pode produzir resultados imprecisos ou enganosos. Assim, a LBCA institui medidas rigorosas visando supervisionar e revisar as entregas, garantindo sua precisão.

1.1 Supervisão de IA: Qualquer resultado gerado pela IAG deve sempre ser cuidadosamente supervisionado e revisado por um profissional da LBCA antes de ser utilizado em qualquer serviço jurídico.

1.2 Treinamento de Supervisores: Os supervisores encarregados de revisar os resultados da IAG devem receber treinamento adequado com o propósito de entender os potenciais problemas e limitações associados ao uso de IAG.

1.3 Revisões Regulares: Os sistemas de IAG utilizados pela LBCA serão submetidos a revisões regulares visando garantir a precisão e a confiabilidade dos resultados.

1.4 Implementando a Precisão: Serão implementadas estratégias diversas com o objetivo de melhorar constantemente a precisão da IAG, incluindo a reavaliação dos dados de treinamento e a reconfiguração do sistema, conforme necessário.

1.5 Transparência e Divulgação: Qualquer incerteza ou margem de erro associada aos resultados da IAG será comunicada de maneira clara e transparente aos respectivos interessados.

2. Precisão e supervisão: A LBCA acredita na importância da transparência em nossas operações. Assim, nossa abordagem ao uso de IAG na prática jurídica deverá ser totalmente aberta e transparente.

2.1 Divulgação de Uso de IA: Os gestores devem divulgar o uso de IAG para nossos clientes e outras partes relevantes sempre de maneira clara e adequada. Os clientes serão informados sempre que a IAG for utilizada na prestação de seus serviços jurídicos.

2.2 Detalhes da Implementação: As especificidades de como e por que a IAG é usada deverão ser explicadas de maneira compreensível para os interessados.

2.3 Direito à Informação: Respeitaremos o direito de nossos clientes de saber como seus dados estão sendo utilizados, garantindo que as questões relacionadas ao uso da IAG sejam respondidas de maneira oportuna e completa.

2.4 Riscos e Benefícios: Iremos comunicar com transparência sobre os potenciais riscos e benefícios do uso da IA em cada caso, de modo que os clientes possam tomar decisões informadas.

2.5 Alterações na Política: Havendo qualquer alteração em nossa política de uso de IAG, essas mudanças serão comunicadas imediatamente a todas as partes relevantes.

3. Transparência: A LBCA deve comunicar a seus clientes sobre a possibilidade do uso responsável de IAG na prestação de serviços, preferencialmente, através da seguinte cláusula contratual:

"A LBCA se reserva no direito de utilizar ferramentas de Inteligência Artificial (IA) na prestação dos Serviços, de maneira adequada e conforme permitido pela legislação e regulamentações aplicáveis. O uso de tais ferramentas se dará sempre em conformidade com as Políticas e Diretrizes Éticas de Uso de IA da LBCA, que abrangem, entre outros, os seguintes tópicos:

a) Proteção de dados pessoais e informações confidenciais.
b) Precisão e supervisão do uso de IA.
c) Transparência e divulgação sobre o uso de IA.
d) Gestão de fornecedores de IA.
e) Segurança das ferramentas de IA.
f) Definição e aplicação da IA generativa na prática jurídica.
g) Questões de propriedade intelectual relacionadas ao uso de IA.
h) Manutenção do relacionamento confidencial advogado-cliente no uso de IA.
i) Responsabilidade e prestação de contas na aplicação da IA.
j) Integração da política de IA com a política de proteção de dados e normas de compliance da LBCA.
k) Mitigação do viés de IA através de treinamento adequado e revisão contínua.
l) Implementação das melhores práticas de uso de IA na prática jurídica.
m) Treinamento constante dos profissionais da LBCA no uso ético, eficiente e seguro da IA.

A LBCA se compromete a adotar as melhores práticas de governança de dados, segurança da informação e gestão de IA, garantindo que o uso de tecnologias seja realizado de maneira que proteja os interesses do Cliente e assegure a prestação de Serviços de alta qualidade e em conformidade com as obrigações éticas e legais."

4. Gestão do Fornecedores: A LBCA reconhece a importância da seleção e gestão adequadas dos fornecedores de IA. O escritório se compromete a manter um relacionamento sólido e transparente com todos esses fornecedores.

4.1 Seleção de Fornecedores: Será realizada com base em critérios rigorosos, incluindo a qualidade dos serviços, a segurança da informação, a conformidade ética e legal e o compromisso com o cliente.

4.2 Due Diligence: Todo fornecedor em potencial passará por um processo de due diligence cuidadoso. Essa atividade incluirá a avaliação de suas práticas de segurança de dados, padrões éticos e histórico de conformidade legal.

4.3 Contratos com Fornecedores: Todos os contratos celebrados com fornecedores de IAG incluirão cláusulas claras sobre responsabilidade, direitos de propriedade intelectual, padrões de serviço e procedimentos para resolução de disputas.

4.4 Gerenciamento Contínuo: A performance dos fornecedores será monitorada de perto e revisada regularmente visando garantir a conformidade contínua dos padrões da LBCA.

4.5 Comunicação: A comunicação aberta e transparente será mantida com todos os fornecedores. Qualquer problema ou preocupação será comunicado em tempo hábil e resolvido de forma colaborativa.

4.6 Revisão de Fornecedores: Os fornecedores serão revisados periodicamente com o propósito de se garantir o atendimento das expectativas e padrões da LBCA. Caso necessário, serão tomadas as medidas para alterar ou encerrar o relacionamento com um dado fornecedor.

5. Segurança: A proteção e segurança das ferramentas de IAG e dos dados utilizados e gerados são de suma importância para a LBCA. Por isso, os gestores devem garantir que essas ferramentas sejam protegidas contra ameaças cibernéticas e que quaisquer incidentes de segurança sejam gerenciados de forma rápida e eficaz.

5.1 Proteção contra ameaças cibernéticas: Devem ser implementadas medidas de segurança robustas, incluindo criptografia de dados, firewalls e sistemas de detecção de invasões, com o propósito de proteger nossas ferramentas de IAG contra ameaças cibernéticas.

5.2 Manuseio de Incidentes de Segurança: No caso de um incidente de segurança, a LBCA implementará um plano de resposta a incidentes para garantir que o incidente seja tratado de maneira eficiente, minimizando qualquer dano potencial.

5.3 Atualizações de Segurança: Os gestores devem garantir que as ferramentas de IAG estejam sempre em dia com as mais recentes atualizações de segurança.

5.4 Auditorias de Segurança: A LBCA deverá realizar auditorias de segurança regulares em nossas ferramentas de IAG para identificar e corrigir quaisquer vulnerabilidades de segurança.

5.5 Educação e Formação em Segurança: Serão organizados treinamentos regulares em segurança cibernética para todos os nossos advogados e pessoal de apoio, para garantir que todos compreendam as ameaças à segurança das ferramentas de IAG e como eles podem contribuir para sua proteção.

6. Propriedade Intelectual: A utilização de tecnologias de IAG pode gerar conteúdo e/ou produtos passíveis de proteção (propriedade intelectual). Neste contexto, a proteção e a gestão adequada da propriedade intelectual são de suma importância.

6.1 Propriedade do escritório: Qualquer produto intelectual gerado por colaboradores do escritório, no âmbito de suas atividades e com o uso de IA, será de propriedade da LBCA.

6.2 Acordos com fornecedores: No caso de serem utilizadas ferramentas de IAG de terceiros, as questões relativas à propriedade intelectual de devem ser claramente estipuladas no contrato com o fornecedor.

6.3 Respeito à propriedade intelectual de terceiros: É indispensável que as ferramentas de IA não sejam utilizadas com o propósito de infringir direitos autorais ou qualquer outra forma de propriedade intelectual. A LBCA deve garantir que os dados utilizados para alimentar a IA não violem os direitos de propriedade intelectual de terceiros.

6.4 Divulgação de materiais gerados pela IAG: A divulgação de qualquer material gerado pela IAG deve ser realizada de acordo com as normas de proteção de direitos autorais e de propriedade intelectual.

6.5 Educação e treinamento: A LBCA deve realizar treinamentos regulares para todos os colaboradores, relativamente ao tema da propriedade intelectual no uso de IAG. Esses treinamentos devem enfocar tanto a proteção da propriedade intelectual gerada pelo escritório quanto o respeito à propriedade intelectual de terceiros.

7. Relacionamento Advogado-Cliente: A utilização de ferramentas de Inteligência Artificial na LBCA não altera as obrigações éticas e profissionais para com os nossos clientes. A confidencialidade e a privacidade das comunicações e dos dados dos clientes devem ser respeitadas em todas as situações.

7.1 Confidencialidade das Comunicações: Todo uso de IAG que envolver a análise ou o envio de comunicações entre advogado(a) e cliente devem ser conduzidos de maneira a garantir a total confidencialidade dessas comunicações. Isso se aplica mesmo se a comunicação estiver sendo utilizada apenas para treinar o sistema de IA.

7.2 Proteção de Dados Pessoais e Informações Confidenciais: Qualquer dado pessoal ou informação confidencial de nossos clientes que sejam utilizadas no contexto da IAG deve ser protegidos de acordo com as normas de proteção de dados pessoais e as melhores práticas de segurança da informação. Os(as) advogados(as) devem ser particularmente cuidadosos(as) ao utilizar ferramentas de IAG que envolvam o processamento de tais informações.

7.3 Transparência: Os clientes devem ser informados sobre o uso de IAG na prestação de serviços jurídicos, inclusive quanto a eventuais riscos potenciais. O uso de IAG não deve, em qualquer hipótese, constituir um substituto para o aconselhamento jurídico de um profissional da LBCA.

7.4 Consentimento: Quando aplicável, os clientes devem apresentar seu consentimento informado para o uso de suas informações pessoais ou confidenciais na utilização de IAG. Este consentimento deve ser obtido de forma clara e transparente.

7.5 Treinamento e Conscientização: Todos os membros da LBCA devem receber treinamento sobre a importância da confidencialidade e privacidade no uso de IAg, assim como as consequências de qualquer violação dessas obrigações.

8. Responsabilidade e Prestação de Contas: No uso de Inteligência Artificial em nossas operações, a LBCA tem a responsabilidade de garantir que a IAG seja utilizada de maneira ética, legal e responsável.

8.1 Supervisão e Revisão: Qualquer saída gerada por ferramentas de IA deve ser cuidadosamente supervisionada e revisada por um(a) advogado(a) qualificado(a). As decisões finais devem sempre caber aos profissionais humanos, e não ao sistema de IAG.

8.2 Documentação: Todas as decisões tomadas com base na análise da IAG devem ser documentadas adequadamente, com uma explicação clara do papel que a IA desempenhou na tomada de decisão.

8.3 Resolução de Conflitos: Em caso de qualquer discrepância ou conflito que surja em relação ao uso de IA, os procedimentos apropriados de resolução de conflitos devem ser seguidos junto à área de compliance da LBCA.

8.4 Auditoria e Monitoramento: As atividades de IA devem ser regularmente monitoradas e auditadas visando garantir a conformidade com as normas aplicáveis e com a política de compliance da LBCA.

8.5 Preparação para Incidentes: Deve haver um plano de resposta claro e eficaz para qualquer incidente que possa surgir devido ao uso de IA. Este plano deve ser conhecido por todos os colaboradores.

8.6 Treinamento e Educação: Todos os colaboradores da LBCA devem receber treinamento adequado relativamente às responsabilidades e prestações de contas no uso de IA, especialmente quanto ao entendimento de que a IAG é uma ferramenta de auxílio, de modo que a responsabilidade final recai sempre sobre o profissional humano.

9. Integração com Outras Políticas: O uso de Inteligência Artificial deve estar em total conformidade com as políticas de proteção de dados existentes e com todas as normas de compliance relevantes.

9.1 Políticas de Proteção de Dados: O uso de IAG não deve em nenhuma circunstância violar as políticas de proteção de dados da LBCA. Qualquer informação pessoal ou sensível utilizada ou gerada por meio de IAG deve ser tratada de acordo com tais políticas.

9.2 Normas de Compliance: As operações de IAG devem respeitar todas as normas de compliance, incluindo as normas locais e internacionais de proteção de dados, normas ético-profissionais e as regras de conduta da LBCA.

9.3 Revisão e Atualização Regular: As políticas de proteção de dados e as normas de compliance devem ser regularmente revistas e atualizadas com o propósito de refletir as mudanças relacionadas ao uso de tecnologia de IAG.

9.4 Treinamento e Conscientização: Todos os colaboradores da LBCA devem receber treinamento regular sobre a forma como nossas políticas de proteção de dados e normas de compliance se aplicam ao uso de IAG.

9.5 Resposta a Violações: Em caso de violação das políticas de proteção de dados ou das normas de compliance em relação ao uso de IA, deve-se utilizar prontamente os procedimentos da LBCA, visando responder à violação ou prevenir sua recorrência.

10. Viés da IA: É fundamental garantir que o uso de Inteligência Artificial na LBCA não reforce ou perpetue preconceitos existentes.

10.1 Monitoramento do Viés: Os gestores devem monitorar regularmente as operações de IAG visando identificar e corrigir qualquer viés discriminatório que possa ser gerado pelos resultados da IA.

10.2 Seleção de Dados: Os dados utilizados para treinar os sistemas de IAG devem ser cuidadosamente selecionados com o propósito de garantir uma representação equitativa e evitar o preconceito.

10.3 Transparência: Caso um cliente ou parte interessada solicite, a LBCA deve empreender os melhores esforços visando explicar como a IAG apresentou um determinado resultado. Isso inclui a divulgação de qualquer viés potencial que possa afetar a decisão da IAG.

10.4 Treinamento e Conscientização: Os gestores devem providenciar um treinamento rotineiro, visando conscientizar os membros da equipe sobre a importância de se evitar o viés na IAG, implementando estratégias que detectem e mitiguem tal ocorrência.

10.5 Revisão Regular: Os gestores devem prever uma revisão regular das práticas da LBCA em relação ao viés na IAG, visando garantir que sejam adotadas as melhores práticas disponíveis para evitar o preconceito.

11. Melhores Práticas de Implementação: A LBCA se compromete a utilizar as melhores práticas disponíveis em relação ao uso de IAG na prática jurídica.

11.1 Revisão Contínua: Os gestores devem acompanhar continuamente os avanços e desenvolvimentos, tanto em IAG como em ética da IA visando garantir que nossas práticas permaneçam atualizadas.

11.2 Benchmarking: Devemos comparar nossas práticas de IAG com as de outras sociedades, clientes ou empresas bem consideradas no uso ético dessa tecnologia, visando garantir que a LBCA se encontra alinhada com as melhores práticas do setor.

11.3 Treinamento: Os gestores devem disponibilizar treinamento regular e atualizado sobre as melhores práticas de IAG para os membros da equipe que usam tal tecnologia em suas atividades.

11.4 Feedback e Melhoria Contínua: A LBCA deve promover uma cultura de feedback e melhoria contínua, incentivando todos os colaboradores a trazer ideias e preocupações sobre como podemos aprimorar ainda mais o uso da IAG.

12. Governança e Supervisão: Um comitê interno de ética e governança em IA revisará e aprovará novos modelos e aplicações de IAG antes de sua implementação.

12.1 O Comitê de Ética e Governança será responsável por supervisionar e orientar todas as atividades relacionadas ao uso de IA e IAG no escritório de acordo com princípios éticos e as melhores práticas estabelecidas.

12.2 O Comitê será composto por: um membro do Conselho Gestor do escritório, o Encarregado de Proteção de Dados (DPO), o Diretor de Tecnologia (CTO), o Diretor de Informática (CIO), um sócio sênior indicado pelos sócios fundadores e um especialista externo com notório saber sobre o tema, convidado pelo escritório.

12.3 O Comitê aprovará novos modelos e aplicações de IA previamente, fará testes rigorosos para detectar vieses, podendo fazer uso de auditorias externas e revisará continuamente nossas práticas de IA.

12.4 O Comitê treinará os membros do escritório nas melhores práticas, incentivará feedbacks e interagirá com terceiros para moldar boas práticas para IA confiável.

13. Pesquisa e Colaboração Externa: A LBCA apoiará pesquisas acadêmicas em ética de IA e publicará trabalhos para contribuir ao estado da arte sobre a matéria.

13.1 Modelos treinados e dados poderão ser disponibilizados à comunidade externa para fins de pesquisa e validação.

13.2 Participaremos e organizaremos eventos públicos para discutir boas práticas em IA responsável.

14. Monitoramento e Responsabilidade: Os sistemas de IA utilizados pela LBCA serão continuamente monitorados quanto a erros, tendenciosidade e desempenho inconsistente.

15. Engajamento Externo: Contribuiremos ativamente para o debate público e formulação de políticas sobre ética em IA.

15.1 Interagiremos com governos, órgãos reguladores e a sociedade civil para moldar boas práticas para IA confiável.

16. Metas de Longo Prazo

A LBCA se compromete publicamente com metas mensuráveis anuais para garantir a implementação responsável de IA alinhada com nossos princípios éticos. Essa versão expandida incorpora governança, transparência, colaboração externa e interação com o ecossistema para aprimorar nossa abordagem ética à IAG. Continuaremos atualizando esta política à medida que a tecnologia se desenvolver.

Texto atualizado até 18 de setembro de 2023.