본문 바로가기
반응형

탈옥2

GPT4를 사용하여 GPT3.5를 해킹하고 제일 브레이크 가능? 최신 모델인 GPT-4를 사용하여 GPT-3.5의 제한을 푸는「제일 브레이크(탈옥)」시험 결과를, 엔지니어 Raghav Toshniwal 씨가 공개했습니다. GitHub - traghav/auto-redteam: Redteaming LLMs using other LLMs https://github.com/traghav/auto-redteam GitHub - traghav/auto-redteam: Redteaming LLMs using other LLMsRedteaming LLMs using other LLMs. Contribute to traghav/auto-redteam development by creating an account on GitHub.github.com GPT-4에게 이렇게 명령합니다... 2023. 3. 29.
ChatGPT를 강제로 대답시키는 '제일 브레이크(탈옥)' 대화 모음「Jailbreak Chat」 ChatGPT가 작성하는 텍스트에는 제한이 있지만, 영리하게 이러한 제한을 제거하는 "제일 브레이크(탈옥)"가 일부 사용자에 의해 시도되고 있으며, 아래의 "Jailbreak Chat"에서 그 프롬프트를 정리하고 있습니다. Jailbreak Chat https://www.jailbreakchat.com/ 제일 브레이크용 프롬프트란, ChatGPT와 대화를 시작하기 전 단계로서 제일 먼저 입력하는 텍스트입니다. 이 Jailbreak Chat은 워싱턴 대학에서 컴퓨터 과학을 배우는 알렉스 앨버트 씨가 정리한 페이지입니다. Jailbreak 채팅을 방문하면 제일 브레이크에 대한 프롬프트가 늘어서 있습니다. 맨 위에 표시된 Mr.Blonde를 클릭합니다. 그러자 이런 식으로 프롬프트의 내용이 표시되었습니다. 이.. 2023. 3. 3.
반응형