Checklist ético de IA para Relações Públicas. Protege reputações com governança, transparência e revisão humana.
Que a Inteligência Artificial generativa (GenAI) já entrou no quotidiano das Relações Públicas (RP) e da Assessoria de Imprensa já todos sabemos, não vale a pena andarmo-nos a iludir! Mas a grande questão é se estaremos a utilizá-la de forma ética e segura? Este artigo foi criado a pensar nisto e apresenta um checklist prático de GenAI ground rules para implementar a Ética da IA nas RPs, assegurando a proteção da reputação de empresas, marcas e instituições.
Ao redigirmos este conteúdo procurámos ser o mais abrangentes possíveis e englobar todos os profissionais de comunicação, diretores de marketing, agências de RP e consultores que necessitam de integrar a IA nas suas operações. O momento é agora: a adoção cresce a ritmo acelerado, mas ainda sem regras uniformes. O contexto é global, mas com destaque para a realidade europeia, onde o Regulamento da IA da União Europeia já impõe obrigações legais. A razão é simples: sem diretrizes claras, a IA pode comprometer a confiança e destruir reputações.
Porque é que a ética da IA é crítica nas Relações Públicas
A IA oferece ganhos de eficiência, criatividade e escalabilidade, mas também riscos sérios. Em RP, trabalha-se com credibilidade e confiança. Se um modelo gerar desinformação, conteúdo enviesado ou violar a privacidade, o impacto reputacional pode ser devastador. Os riscos mais comuns incluem: erros factuais ou “alucinações”, viés implícito, falta de transparência, problemas de privacidade, disputas sobre autoria, ausência de accountability e a tentação de substituir o julgamento humano por outputs automáticos.
Organizações internacionais já estão a definir linhas vermelhas e boas práticas:
- CIPR — Ethics Guide to Artificial Intelligence in PR: https://cipr.co.uk/common/Uploaded%20files/Policy/AI/AIinPR_Ethics_Guide_UK.pdf
- Global Alliance — Venice Pledge / Responsible AI Principles: https://www.globalalliancepr.org/guiding-principles-for-ethical-and-responsible-artificial-intelligence
- PRII (Irlanda) — Guidelines para uso de IA em RP: https://www.prii.ie/resource/use-of-ai-in-pr-guidelines-for-prii-members.html
- Regulamento Europeu da IA (EU AI Act):
https://digital-strategy.ec.europa.eu/pt/policies/regulatory-framework-ai - Regulamento Europeu da IA (EU AI Act) (versão em português):
https://digital.gov.pt/regulamentacao/ai-act - PR Daily — GenAI Ground Rules Checklist: https://www.prdaily.com/genai-ground-rules-a-pre-work-checklist-for-agencies-and-clients/
O contributo das entidades de referência
O CIPR defende que o uso da IA em RP deve ser avaliado à luz de princípios éticos e não apenas de regras rígidas. Pode encontrar aqui o guia completo: https://cipr.co.uk/common/Uploaded%20files/Policy/AI/AIinPR_Ethics_Guide_UK.pdf
A Global Alliance apresenta sete princípios universais de IA responsável, incluindo ética em primeiro lugar, supervisão humana e transparência. Consulte o documento completo: https://www.globalalliancepr.org/guiding-principles-for-ethical-and-responsible-artificial-intelligence
O PRII sublinha a necessidade de revisão humana obrigatória e transparência no uso da IA. Guia completo: https://www.prii.ie/resource/use-of-ai-in-pr-guidelines-for-prii-members.html
O Regulamento Europeu da IA, já aprovado, impõe obrigações legais para sistemas de risco elevado, incluindo supervisão humana e auditorias. Detalhes: https://en.wikipedia.org/wiki/Regulation_of_artificial_intelligence
O PR Daily alerta para contratos claros, para clientes e agências, definição rigorosa de “IA” e proteção da propriedade intelectual: https://www.prdaily.com/genai-ground-rules-a-pre-work-checklist-for-agencies-and-clients/
Checklist: GenAI Ground Rules + Boas Práticas Éticas para RP
Fase 0: Preparação estratégica
Antes de qualquer utilização de IA, é fundamental preparar terreno. Esta fase define os limites, responsabilidades e objetivos, assegurando que a tecnologia não entra na organização sem rumo ou sem supervisão clara.
- Diagnóstico interno de maturidade em IA
- Definição de propósito claro para o uso da IA
- Criação de governança e supervisão ética
- Avaliação de fornecedores e ferramentas (due diligence)
- Contratos claros sobre propriedade intelectual, responsabilidade e confidencialidade
Fase 1: Design e configuração
Aqui, a organização estabelece como a IA será utilizada e quais barreiras de segurança devem existir. Trata-se de desenhar processos éticos desde o início, para que os riscos estejam controlados antes de qualquer output chegar ao público.
- Classificação de riscos (baixo, médio, alto)
- Privacidade por design e minimização de dados
- Transparência: revelar sempre quando a IA foi utilizada
- Registo de prompts, outputs e versões
- Formação da equipa em ética e boas práticas de IA
Fase 2: Operação e produção
É o momento em que a IA entra em ação. Esta fase exige revisão humana e vigilância constante, garantindo que o que chega ao público mantém a credibilidade e não põe em causa a reputação da organização.
- Revisão humana obrigatória em conteúdos públicos ou sensíveis
- Verificação de viés e auditoria de equidade
- Simulações de cenários adversos (teste adversarial)
- Monitorização contínua e recolha de feedback
- Planos de contingência e rollback em caso de falha reputacional
Fase 3: Avaliação e melhoria contínua
Após a implementação, importa medir, avaliar e ajustar. A ética da IA não é estática: evolui com a legislação, com a tecnologia e com a própria cultura da organização. É essencial monitorizar e atualizar práticas para manter a confiança a longo prazo.
- Definição de KPIs éticos e métricas de confiança
- Auditorias externas regulares
- Atualização constante com novas normas e leis
- Criação de cultura ética e transparente dentro da organização
- Participação ativa em redes profissionais e fóruns sobre IA responsável
DoItology: Formação e o Passo Pensar
Uma checklist é essencial, mas não basta. É necessário acompanhá-lo de formação contínua e de uma cultura de reflexão crítica. É aqui que entram a Formação e o Passo Pensar da DoItology.
- A Formação garante que as equipas conhecem riscos, dominam ferramentas e sabem identificar enviesamentos. Inclui workshops práticos, simulações de crise e certificação interna.
- O Passo Pensar é o momento deliberado antes de cada utilização da IA: questionar quem assume responsabilidade, qual o risco reputacional e que valor acrescenta. É o mecanismo que impede decisões precipitadas e assegura que a IA é usada de forma ética.
Combinados, estes dois elementos transformam a Ética da IA na RP numa prática tangível e numa vantagem competitiva.
A Ética da IA na RP não é opcional: é a condição mínima para proteger a confiança e a credibilidade. Sem regras, a IA pode desencadear crises difíceis de reverter. Com checklist estruturado, governança sólida e formação contínua, as organizações conseguem transformar a IA num ativo seguro e diferenciador.
A DoItology posiciona-se como motor desta transformação: através da Formação e do Passo Pensar, assegura que cada utilização de IA é ponderada, ética e alinhada com os valores de comunicação responsável.

