Tilbage til Nyheder
11.3.2026 AI Nyheder, ChatGPT 1 minutter

Design af AI‑agenter mod prompt‑injektion

Artikel forklarer, hvordan ChatGPT modstår prompt‑injektion og social engineering ved at begrænse risikable handlinger og beskytte følsomme data i agent‑workflows. Tiltag omfatter handlingsbegrænsninger, adgangskontrol, maskering/filtrering af fortrolige oplysninger, verifikation af input og sikre workflow‑trin for at forhindre, at ondsindede instruktioner manipulerer agenter.

Relaterede Værktøjer.