반응형 ChatGPT Jail Break1 ChatGPT를 흉악한 폭언 머신으로 변모시키는 마법의 문자열 발견 ChatGPT와 Bard와 같은 생성 AI에는 '폭탄 제조 법'과 같이 위험한 정보와, 중상모략 같은 비윤리적 문장 생성을 거부하는 안전장치가 설치되어 있습니다. 그러나, 프롬프트의 말미에 언뜻 의미를 알 수 없는 문자열인 「적대적 접미사」를 붙이는 것으로, 이 제한을 돌파하여, 본래는 출력할 수 없는 과격한 문장을 AI로 생성시키는 「Jail Break(탈옥)」의 수법을 발견했습니다. Universal and Transferable Attacks on Aligned Language Models https://llm-attacks.org/ Researchers Poke Holes in Safety Controls of ChatGPT and Other Chatbots - The New York Times .. 2023. 8. 1. 이전 1 다음 반응형