Política de uso de inteligência artificial

Código de Conduta e Política de Uso de Inteligência Artificial (IA)

Este documento formaliza o compromisso da LOGPYX com a inovação responsável e o uso ético da Inteligência Artificial (IA). Em um cenário de crescente curiosidade e, por vezes, desconfiança do mercado, esta política serve como um código de conduta para nossas equipes e um manifesto de transparência para nossos clientes e parceiros. 

A presente política de IA traduz, de forma prática, o DNA da LOGPYX: promover produtividade e segurança na intralogística por meio de tecnologia de ponta e soluções de localização de alta precisão, sempre com foco nas pessoas e na eficiência operacional. Cada diretriz aqui definida conecta princípios de IA, precisão, transparência, segurança, melhoria contínua e resultados, aos elementos que orientam a empresa no dia a dia, garantindo que nossas aplicações tecnológicas sejam autênticas, coerentes e integralmente alinhadas ao propósito de otimizar fluxos de pessoas, veículos e cargas, com operações mais seguras e eficientes.

Nossos Princípios Fundamentais para o Uso de IA

1.1. Humanidade no Comando (Human-in-the-Loop).

A LOGPYX adota a Inteligência Artificial como uma ferramenta de apoio, um copiloto para potencializar a eficiência e a estratégia dos nossos produtos e serviços. A tecnologia jamais substituirá o julgamento técnico, a empatia e a responsabilidade final de nossos profissionais. Toda iniciativa que envolva uso de IA na LOGPYX, análises, recomendações, parametrizações, dashboards, alertas e automações, terá um responsável técnico humano claramente designado, com competência para definir o problema, curar dados, revisar criticamente os resultados, autorizar a implantação e responder pelos efeitos operacionais e de conformidade; sua validação deverá ser registrada de forma auditável (quem validou, quando e com base em quais evidências), assegurando rastreabilidade, segurança das pessoas, integridade dos ativos e aderência às políticas internas e à legislação aplicável, sem substituição do julgamento profissional pelo sistema.

1.2. Transparência Radical.

Na LOGPYX, comunicamos de forma clara, proativa e verificável como e quando a Inteligência Artificial compõe nossos processos e entregas, especialmente em iniciativas de intralogística que envolvam modelos preditivos, visão computacional, otimização de rotas, detecção de eventos e priorização de tarefas operacionais. Sempre que o uso de IA for componente material de um projeto, essa informação constará nas propostas, relatórios, manuais operacionais e changelogs, com descrição do objetivo, limites de uso, dados tratados e pontos de validação humana. Essa prática responde à demanda do mercado por clareza, antecipa tendências regulatórias e reforça nosso compromisso com relações de confiança, segurança das pessoas, integridade dos ativos, eficiência operacional e conformidade, inclusive com LGPD e requisitos contratuais dos clientes.

1.3. Excelência e Qualidade Aumentada: A IA a Serviço do Melhor Resultado

Na LOGPYX, a Inteligência Artificial é empregada para elevar a qualidade operacional e a segurança, nunca para diluí-las: usamos IA para automatizar tarefas repetitivas, acelerar análises de dados e sugerir otimizações em fluxos de intralogística (priorização de tarefas, detecção de eventos, previsão de demanda), enquanto o resultado final é garantido por validação humana rigorosa. Nosso time desenvolve continuamente habilidades de prompt engineering e realiza fine-tuning dos modelos para capturar o contexto do cliente (ambiente, restrições de HSE, SLAs, janelas logísticas), além de monitorar desempenho via práticas de MLOps (registros, métricas, A/B e revisão periódica). Essa abordagem ressignifica o uso da IA para entregar mais valor, insights mais profundos e resultados superiores, com eficiência mensurável e aderência às políticas internas e à legislação aplicável.

1.4. Conformidade e Ética Inegociáveis: Nosso Compromisso com a Integridade

A LOGPYX compromete-se com a adesão intransigente à legislação vigente, com especial atenção à Lei Geral de Proteção de Dados (LGPD – Lei 13.709/2018) e às futuras diretrizes do Marco Legal da IA (PL 2.338/2023). Nossa bússola ética abrange a proteção rigorosa de dados, o respeito absoluto à propriedade intelectual, a mitigação de vieses e a promoção da dignidade humana em todas as nossas operações que envolvam Inteligência Artificial. A ética é o alicerce de todas as nossas ações.

1.5. Inovação com Responsabilidade: Explorando o Futuro, Mitigando Riscos

Na LOGPYX, estimulamos a experimentação com novas ferramentas e aplicações de IA como alavanca de inovação em intralogística, sempre acompanhada de avaliação criteriosa de riscos: testes em ambiente controlado (sandbox/pilotos), análise de impacto operacional e de segurança (HSE), planos de reversão e governança de mudanças. Mitigamos ativamente vieses algorítmicos para evitar decisões injustas ou discriminatórias que afetem pessoas, alocação de recursos, priorização de tarefas ou critérios de segurança, assegurando práticas justas, diversas e inclusivas, coerentes com nossos valores e com a LGPD. Para nós, inovar é avançar com ousadia e prudência, entregando ganhos reais de eficiência e segurança, sem abrir mão da responsabilidade técnica, da conformidade e do respeito às pessoas.

Navegando pelo Cenário Regulatório: Nosso Compromisso com a Lei

2.1. Alinhamento com o Marco Legal da IA (PL 2.338/2023): Liderança e Preparação

O Brasil avança na definição de um marco regulatório para a Inteligência Artificial, com iniciativas legislativas em discussão no Congresso Nacional, como o PL 2.338/2023. Ao incorporar desde já princípios de governança, transparência e gestão de riscos coerentes com esse projeto, a LOGPYX se antecipa às exigências regulatórias e se posiciona como referência em responsabilidade algorítmica aplicada à intralogística, reforçando segurança das pessoas, integridade dos ativos, eficiência operacional e conformidade.

2.1.1. Adoção da Abordagem Baseada em Risco

A LOGPYX classifica internamente o uso de sistemas de IA de acordo com os níveis de risco propostos no PL 2.338/2023, que espelha abordagens internacionais como o AI Act europeu.

  • Risco Excessivo (PROIBIDO): A LOGPYX proíbe terminantemente o desenvolvimento, a contratação ou o uso de sistemas de IA que se enquadrem na categoria de risco excessivo. Isso inclui, mas não se limita a, sistemas que utilizam técnicas subliminares para manipular o comportamento humano de forma prejudicial, que exploram vulnerabilidades de grupos específicos ou que implementam sistemas de pontuação social (social scoring).
  • Alto Risco: São considerados de alto risco os sistemas cujo uso pode impactar significativamente os direitos e liberdades fundamentais. Na LOGPYX, exemplos incluem:
  • Sistemas de reconhecimento de emoções que possam ser utilizados em pesquisas de mercado ou testes de campanha.
  • Qualquer sistema que tome decisões automatizadas que afetem o acesso de um indivíduo a oportunidades, serviços ou benefícios.
  • Protocolo LOGPYX: Para qualquer aplicação de alto risco, é obrigatória a realização de uma Avaliação de Impacto Algorítmico prévia, a garantia de supervisão e revisão humana da decisão, e a manutenção de registros detalhados sobre o funcionamento e uso do sistema.
  • Baixo Risco: Esta categoria abrange a maioria das aplicações de IA na LOGPYX.
  • Protocolo LOGPYX: Mesmo para baixo risco, exige-se a validação humana e a adesão estrita aos princípios gerais desta política, em especial os de Humanidade no Comando e Excelência.


2.2. A Inteligência Artificial sob a Égide da LGPD (Lei 13.709/2018): Proteção de Dados como Prioridade

A Inteligência Artificial e a Lei Geral de Proteção de Dados estão intrinsecamente conectadas, pois muitos sistemas de IA são alimentados por dados pessoais. A conformidade com a LGPD é, portanto, um pilar inegociável em nossa estratégia de IA.

  • Proibição de Treinamento com Dados Sensíveis: É terminantemente proibido inserir dados pessoais de qualquer natureza (de clientes, colaboradores ou parceiros) ou informações confidenciais e estratégicas de clientes em plataformas públicas de IA Generativa ou em ferramentas de terceiros, a menos que o contrato com o fornecedor da tecnologia garanta explicitamente, e de forma auditável, que os dados inseridos (inputs) não serão armazenados ou utilizados para treinar o modelo ou para quaisquer outros fins.
  • Transparência em Decisões Automatizadas: Em conformidade com o Artigo 20 da LGPD, caso a LOGPYX utilize um sistema de IA para tomar uma decisão baseada unicamente em tratamento automatizado que afete os interesses de um indivíduo (como em uma análise de perfil de consumidor para segmentação), o titular dos dados tem o direito de solicitar a revisão dessa decisão por um humano. A LOGPYX se compromete a fornecer, mediante solicitação, informações claras e adequadas sobre os critérios e procedimentos utilizados na decisão automatizada
  • Minimização de Dados e Finalidade: Todo e qualquer tratamento de dados pessoais realizado com o auxílio de IA seguirá rigorosamente os princípios da LGPD, garantindo que apenas os dados estritamente necessários para uma finalidade específica, legítima e previamente informada ao titular sejam coletados e processados
 

3. Ferramentas e Fornecedores: Escolhendo Nossos Parceiros Tecnológicos

A escolha das ferramentas de IA é uma decisão estratégica que impacta a segurança, a conformidade e a qualidade do nosso trabalho.

  • Homologação Obrigatória: Nenhuma ferramenta de IA pode ser utilizada sem antes passar por um processo formal de avaliação e homologação pelo Comitê de IA ou pelo responsável designado. Este processo centralizado de governança evita a proliferação de ferramentas não seguras, otimiza custos através de licenciamentos corporativos e garante um padrão de qualidade e segurança em toda a agência.
  • Critérios de Avaliação de Ferramentas: A análise de uma nova ferramenta de IA deve incluir, no mínimo:
  • Termos de Uso e Política de Privacidade: Verificação minuciosa para confirmar que os inputs (nossos prompts, dados de clientes, informações estratégicas) não são utilizados para treinar o modelo do fornecedor ou para qualquer outra finalidade que não seja a prestação do serviço contratado.1
  • Segurança da Informação: Avaliação das medidas de segurança da plataforma, como criptografia, controles de acesso e certificações de segurança.
  • Conformidade Legal: Análise da postura do fornecedor em relação à LGPD, ao GDPR (se aplicável) e às leis de direitos autorais.
 

Governança, Capacitação e Evolução

4.1. Estrutura de Governança

Comitê de IA (ou Responsável Designado): Será formalmente instituída uma função ou um comitê multidisciplinar responsável pela governança da IA na LOGPYX. Suas atribuições incluem:

  • Supervisionar a implementação e o cumprimento desta política em toda a empresa.
  • Conduzir o processo de avaliação e homologação de novas ferramentas de IA.
  • Coordenar e documentar as Avaliações de Impacto Algorítmico para usos classificados como de alto risco.
  • Servir como ponto central de consulta para colaboradores com dúvidas ou dilemas éticos relacionados ao uso de IA.

4.2. Capacitação Contínua

Treinamento Obrigatório: Todos os colaboradores da LOGPYX, atuais e futuros, passarão por um treinamento inicial obrigatório sobre esta política, abordando os princípios de uso ético, seguro e legal da Inteligência Artificial.

Educação Continuada: A LOGPYX promoverá, de forma recorrente, workshops, palestras e a curadoria de materiais sobre temas como prompt engineering avançado, novas ferramentas homologadas e atualizações no cenário tecnológico e legislativo.

Belo Horizonte/MG, 14 de novembro de 2025. 

LOGPYX TECNOLOGIA S.A.

CNPJ/MF sob nº 26.355.530/0001-46

Se tiver dúvidas, entre em contato conosco.

Fale Conosco

Calcule os custos de um acidente de trabalho

Saiba o impacto real dos acidentes de movimentação de carga e saiba qual o retorno de investir (ROI) em soluções preditivas.

Calcule os custos de um acidente de trabalho

Saiba o impacto real dos acidentes de movimentação de carga e saiba qual o retorno de investir (ROI) em soluções preditivas.