Categoria:Cybersecurity

PGECPD

Pós-Graduação em Engenharia de Cibersegurança e Proteção de Dados

A Pós-Graduação em Engenharia de Cibersegurança e Proteção de Dados é um programa Lato Sensu completo, ideal para profissionais que desejam atuar na linha de frente da defesa digital, em uma das áreas mais estratégicas e bem remuneradas da atualidade. Reconhecido pelo MEC, o programa confere o título de especialista.

CONSULTE MAIS INFORMAÇÃO

A Ameaca Silenciosa Como o Data Poisoning Envenenamento de Dados Pode Corromper a IA

A Ameaça Silenciosa – Como o “Data Poisoning” (Envenenamento de Dados) Pode Corromper a IA?

O data poisoning transforma a maior força de um LLM, sua capacidade de aprender com vastas quantidades de dados, em sua maior fraqueza. Não é apenas uma falha técnica; é uma vulnerabilidade de segurança fundamental que pode ser usada para sabotagem, espionagem e disseminação de desinformação. Preparamos um artigo completo explicando sobre o tema. Confira.

CONSULTE MAIS INFORMAÇÃO

Ataques Adversariais e Ciberseguranca em Modelos de Machine Learning de IA

Ataques Adversariais e Cibersegurança em Modelos de Machine Learning de IA

Ataques adversariais, especificamente ataques de evasão, são uma técnica que visa enganar modelos de Machine Learning (ML) e Inteligência Artificial (IA) em produção (na fase de inferência). O ataque consiste em criar entradas maliciosas, chamadas “exemplos adversariais”, que são intencionalmente projetadas para causar uma classificação ou predição incorreta por parte do modelo. Este artigo vai ajudar a compreender o problema e os riscos.

CONSULTE MAIS INFORMAÇÃO

O Risco de Vazamento de Dados Sensiveis em LLMs

O Risco de Vazamento de Dados Sensíveis em LLMs

Os Grandes Modelos de Linguagem (LLMs) impressionam por sua capacidade de gerar textos, códigos e até reflexões complexas, graças ao treinamento em vastas quantidades de dados da internet. No entanto, essa mesma habilidade traz riscos sérios: os modelos podem reproduzir informações reais e confidenciais, como chaves de API ou dados pessoais, fenômeno conhecido como Vazamento de Dados Sensíveis ou “Regurgitação de Dados”. Esse problema representa uma ameaça crítica à segurança e pode ter implicações legais, exigindo atenção e responsabilidade dos profissionais de IA.

CONSULTE MAIS INFORMAÇÃO

Prompt Injection - A Falha de Seguranca Fundamental em Aplicacoes de IA com LLMs

Prompt Injection – A Falha de Segurança Fundamental em Aplicações de IA com LLMs

Se você está construindo ou usando aplicações baseadas em Modelos de Linguagem de Grande Escala (LLMs), como chatbots, Agentes de IA ou assistentes virtuais, existe uma vulnerabilidade que você precisa entender. Ela não é um bug de código tradicional, mas uma falha inerente ao design atual desses sistemas de IA. Seu nome é Prompt Injection (Injeção de Prompt).

CONSULTE MAIS INFORMAÇÃO

© 2025 Data Science Academy