본문 바로가기
반응형

ChatGPT 탈옥4

ChatGPT를 흉악한 폭언 머신으로 변모시키는 마법의 문자열 발견 ChatGPT와 Bard와 같은 생성 AI에는 '폭탄 제조 법'과 같이 위험한 정보와, 중상모략 같은 비윤리적 문장 생성을 거부하는 안전장치가 설치되어 있습니다. 그러나, 프롬프트의 말미에 언뜻 의미를 알 수 없는 문자열인 「적대적 접미사」를 붙이는 것으로, 이 제한을 돌파하여, 본래는 출력할 수 없는 과격한 문장을 AI로 생성시키는 「Jail Break(탈옥)」의 수법을 발견했습니다. Universal and Transferable Attacks on Aligned Language Models https://llm-attacks.org/ Researchers Poke Holes in Safety Controls of ChatGPT and Other Chatbots - The New York Times .. 2023. 8. 1.
GPT4를 사용하여 GPT3.5를 해킹하고 제일 브레이크 가능? 최신 모델인 GPT-4를 사용하여 GPT-3.5의 제한을 푸는「제일 브레이크(탈옥)」시험 결과를, 엔지니어 Raghav Toshniwal 씨가 공개했습니다. GitHub - traghav/auto-redteam: Redteaming LLMs using other LLMs https://github.com/traghav/auto-redteam GitHub - traghav/auto-redteam: Redteaming LLMs using other LLMsRedteaming LLMs using other LLMs. Contribute to traghav/auto-redteam development by creating an account on GitHub.github.com GPT-4에게 이렇게 명령합니다... 2023. 3. 29.
ChatGPT를 강제로 대답시키는 '제일 브레이크(탈옥)' 대화 모음「Jailbreak Chat」 ChatGPT가 작성하는 텍스트에는 제한이 있지만, 영리하게 이러한 제한을 제거하는 "제일 브레이크(탈옥)"가 일부 사용자에 의해 시도되고 있으며, 아래의 "Jailbreak Chat"에서 그 프롬프트를 정리하고 있습니다. Jailbreak Chat https://www.jailbreakchat.com/ 제일 브레이크용 프롬프트란, ChatGPT와 대화를 시작하기 전 단계로서 제일 먼저 입력하는 텍스트입니다. 이 Jailbreak Chat은 워싱턴 대학에서 컴퓨터 과학을 배우는 알렉스 앨버트 씨가 정리한 페이지입니다. Jailbreak 채팅을 방문하면 제일 브레이크에 대한 프롬프트가 늘어서 있습니다. 맨 위에 표시된 Mr.Blonde를 클릭합니다. 그러자 이런 식으로 프롬프트의 내용이 표시되었습니다. 이.. 2023. 3. 3.
채팅 AI 'ChatGPT'의 규제를 빠져나가기 위해 쥐어짜낸 또 다른 인격「DAN」 ChatGPT에는 콘텐츠 제한이 걸려있기 때문에 성적이거나 폭력적인 콘텐츠에 대한 답변은 반환되지 않을 수 있습니다. 여기서, 입력 텍스트를 궁리하는 것으로 콘텐츠 제한을 제외한 ChatGPT의 다른 인격「DAN (Do Anything Now, 지금 무엇이든 할수있다)」을 만드는 방법이, 온라인 게시판 사이트 Reddit에서 짜내지고 있습니다. ChatGPT jailbreak forces it to break its own rules ChatGPT's 'jailbreak' tries to make the A.I. break its own rules, or dieReddit users have tried to force OpenAI's ChatGPT to violate its own rules on vio.. 2023. 2. 8.
반응형