Toolkit para IA generativa responsável
Ferramentas e orientações para projetar, criar e avaliar modelos de IA aberta com responsabilidade.
Design responsável de aplicativos
Defina regras de comportamento do modelo, crie um aplicativo seguro e responsável e mantenha uma comunicação transparente com os usuários.
Alinhamento de segurança
Descubra técnicas de depuração imediata e orientações para ajustes e RLHF para alinhar modelos de IA às políticas de segurança.
Avaliação do modelo
Encontre orientações e dados para realizar uma avaliação robusta do modelo de segurança, imparcialidade e veracidade com o Comparador de LLM.
de saída
Implante classificadores de segurança usando soluções prontas para uso ou crie seus próprios classificadores com tutoriais passo a passo.
Projete uma abordagem responsável
Identifique proativamente os possíveis riscos do seu aplicativo e defina uma abordagem no nível do sistema para criar aplicativos seguros e responsáveis para os usuários.
Primeiros passos
Definir políticas no nível do sistema
Determine o tipo de conteúdo que seu aplicativo deve ou não gerar.
Design com foco na segurança
Defina sua abordagem geral para implementar técnicas de redução de riscos, considerando as compensações técnicas e comerciais.
Seja transparente
Comunique sua abordagem com artefatos como cards de modelo.
Sistemas de IA seguros
Considere os riscos de segurança específicos da IA e os métodos de correção destacados no framework de IA segura (SAIF, na sigla em inglês).
Alinhar o modelo
Alinhe seu modelo às suas políticas de segurança específicas usando técnicas de solicitação e ajuste.
Primeiros passos
Crie avisos mais seguros e robustos
Use o poder dos LLMs para criar modelos de comandos mais seguros com a biblioteca Model alinhamento.
Ajustar modelos para segurança
Controle o comportamento do modelo ajustando-o de acordo com suas políticas de segurança e de conteúdo.
Investigar os comandos do modelo
Crie instruções seguras e úteis com melhorias iterativas usando a Ferramenta de interpretabilidade de aprendizado (LIT, na sigla em inglês).
Avalie o modelo
Avalie os riscos do modelo em relação à segurança, justiça e precisão factual usando nossas orientações e ferramentas.
Primeiros passos
Comparador de LLM
Realize avaliações lado a lado com o Comparador de LLM para avaliar qualitativamente as diferenças nas respostas entre modelos, diferentes comandos para o mesmo modelo ou até mesmo diferentes ajustes de um modelo.
Diretrizes de avaliação de modelos
Saiba mais sobre as práticas recomendadas de red team e avalie seu modelo com base em comparativos acadêmicos para avaliar os danos relacionados à segurança, à imparcialidade e à veracidade.
Proteger com proteções
Filtre as entradas e saídas do aplicativo e proteja os usuários contra resultados indesejados.
Primeiros passos
Texto do SynthID
Uma ferramenta para marcar com marca d'água e detectar texto gerado pelo modelo.
ShieldGemma
Uma série de classificadores de segurança de conteúdo criados com o Gemma 2 e disponíveis em três tamanhos: 2B, 9B e 27B.
Classificadores ágeis
Criar classificadores de segurança para suas políticas específicas usando o ajuste eficiente de parâmetros (PET, na sigla em inglês) com dados de treinamento relativamente pequenos
Verifica a segurança da IA
Garanta conformidade de segurança da IA com relação às suas políticas de conteúdo com APIs e painéis de monitoramento.
Serviço de moderação de texto
Detecte uma lista de atributos de segurança, incluindo várias categorias e tópicos potencialmente nocivos que podem ser considerados sensíveis com essa API Google Cloud Natural Language disponível gratuitamente abaixo de um determinado limite de uso.
API Perspective
Identifique comentários "tóxicos" com a API Google Jigsaw sem custo financeiro para mitigar a toxicidade on-line e garantir um diálogo saudável.