POLÍTICA DE GOVERNANÇA E USO RESPONSÁVEL DE INTELIGÊNCIA ARTIFICIAL – SANDORA
Última atualização: 06/02/2026
A presente Política de Governança e Uso Responsável de Inteligência Artificial tem como objetivo estabelecer diretrizes, princípios e responsabilidades para o desenvolvimento, utilização e supervisão de sistemas de inteligência artificial no âmbito da SANDORA, assegurando que tais tecnologias sejam empregadas de forma ética, transparente, segura e não discriminatória, em conformidade com a legislação vigente, especialmente a Lei nº 13.709/2018 – LGPD, bem como com padrões internacionais de governança de IA, incluindo a ISO/IEC 42001.
DO PAPEL DA INTELIGÊNCIA ARTIFICIAL
A SANDORA reconhece que a inteligência artificial é ferramenta de apoio à análise, geração de insights e otimização de processos, não substituindo a atuação humana na tomada de decisões que possam produzir efeitos relevantes sobre indivíduos, organizações ou direitos fundamentais.
A utilização de sistemas de IA ocorre sob o princípio da supervisão humana significativa, garantindo que decisões estratégicas, avaliações sensíveis e interpretações críticas possam ser revisadas, ajustadas ou contestadas por pessoas habilitadas.
A utilização de sistemas de IA ocorre sob o princípio da supervisão humana significativa, garantindo que decisões estratégicas, avaliações sensíveis e interpretações críticas possam ser revisadas, ajustadas ou contestadas por pessoas habilitadas.
DOS PRINCÍPIOS ÉTICOS E DA NÃO DISCRIMINAÇÃO
Os sistemas de IA utilizados pela SANDORA são desenvolvidos e operados com base nos princípios de ética, equidade e não discriminação.
É expressamente vedado o uso de inteligência artificial para práticas que resultem em vieses injustificados, discriminação direta ou indireta, exclusão social ou violação de direitos, inclusive em razão de gênero, raça, etnia, orientação sexual, condição de saúde, religião ou qualquer outro fator protegido por lei.
A SANDORA adota medidas técnicas e organizacionais para mitigar riscos de viés algorítmico, incluindo revisão periódica de modelos, análise de resultados e validação contínua de dados.
É expressamente vedado o uso de inteligência artificial para práticas que resultem em vieses injustificados, discriminação direta ou indireta, exclusão social ou violação de direitos, inclusive em razão de gênero, raça, etnia, orientação sexual, condição de saúde, religião ou qualquer outro fator protegido por lei.
A SANDORA adota medidas técnicas e organizacionais para mitigar riscos de viés algorítmico, incluindo revisão periódica de modelos, análise de resultados e validação contínua de dados.
DA TRANSPARÊNCIA
A SANDORA compromete-se a informar, sempre que aplicável, quando usuários estiverem interagindo com sistemas automatizados ou quando análises, relatórios e recomendações forem apoiados por inteligência artificial.
Os critérios gerais de funcionamento dos sistemas de IA serão disponibilizados em nível adequado de compreensão, respeitados os limites de sigilo comercial, segurança da informação e propriedade intelectual.
Os critérios gerais de funcionamento dos sistemas de IA serão disponibilizados em nível adequado de compreensão, respeitados os limites de sigilo comercial, segurança da informação e propriedade intelectual.
DA PROTEÇÃO DE DADOS
A proteção de dados pessoais constitui princípio central desta política. O uso de inteligência artificial observa rigorosamente os princípios da finalidade, adequação, necessidade, minimização, segurança e responsabilização previstos na LGPD.
Sempre que possível, os dados utilizados para treinamento, teste ou operação de sistemas de IA são anonimizados ou pseudonimizados.
Dados pessoais sensíveis somente são tratados quando estritamente necessários, mediante base legal adequada e com salvaguardas reforçadas.
Sempre que possível, os dados utilizados para treinamento, teste ou operação de sistemas de IA são anonimizados ou pseudonimizados.
Dados pessoais sensíveis somente são tratados quando estritamente necessários, mediante base legal adequada e com salvaguardas reforçadas.
DO USO DE FERRAMENTAS EXTERNAS
A SANDORA mantém controles internos para impedir que colaboradores utilizem dados pessoais, informações confidenciais ou dados de clientes e parceiros em ferramentas de inteligência artificial públicas ou não autorizadas.
O uso de soluções externas de IA está condicionado à avaliação prévia de riscos, aprovação interna e aderência às políticas de segurança da informação e proteção de dados da empresa.
O uso de soluções externas de IA está condicionado à avaliação prévia de riscos, aprovação interna e aderência às políticas de segurança da informação e proteção de dados da empresa.
DA GOVERNANÇA E RESPONSABILIDADES INTERNAS
A governança de inteligência artificial na SANDORA inclui definição clara de responsabilidades para supervisão, revisão e aprimoramento contínuo dos sistemas utilizados.
Eventuais incidentes, inconsistências, riscos ou impactos adversos relacionados ao uso de IA devem ser reportados, analisados e tratados de forma diligente, com adoção de medidas corretivas e preventivas quando necessário.
Eventuais incidentes, inconsistências, riscos ou impactos adversos relacionados ao uso de IA devem ser reportados, analisados e tratados de forma diligente, com adoção de medidas corretivas e preventivas quando necessário.
DA REVISÃO DA POLÍTICA
Esta política será revisada periodicamente, no mínimo de forma semestral, considerando a evolução tecnológica, regulatória e as melhores práticas de mercado.
Todos os colaboradores da SANDORA devem tomar ciência desta política e aderir integralmente às suas disposições, sendo sua observância condição essencial para utilização de tecnologias de inteligência artificial no contexto das atividades da empresa.
Todos os colaboradores da SANDORA devem tomar ciência desta política e aderir integralmente às suas disposições, sendo sua observância condição essencial para utilização de tecnologias de inteligência artificial no contexto das atividades da empresa.
DO COMPROMISSO COM A INOVAÇÃO RESPONSÁVEL
A SANDORA reafirma seu compromisso com a inovação responsável, a confiança de seus clientes, parceiros e colaboradores, e o uso ético da inteligência artificial como instrumento de promoção de ambientes mais seguros, justos e alinhados aos valores de direitos humanos, governança e conformidade legal.
