ChatGPT가 작성하는 텍스트에는 제한이 있지만, 영리하게 이러한 제한을 제거하는 "제일 브레이크(탈옥)"가 일부 사용자에 의해 시도되고 있으며, 아래의 "Jailbreak Chat"에서 그 프롬프트를 정리하고 있습니다.
Jailbreak Chat
https://www.jailbreakchat.com/
제일 브레이크용 프롬프트란, ChatGPT와 대화를 시작하기 전 단계로서 제일 먼저 입력하는 텍스트입니다. 이 Jailbreak Chat은 워싱턴 대학에서 컴퓨터 과학을 배우는 알렉스 앨버트 씨가 정리한 페이지입니다.
Jailbreak 채팅을 방문하면 제일 브레이크에 대한 프롬프트가 늘어서 있습니다. 맨 위에 표시된 Mr.Blonde를 클릭합니다.
그러자 이런 식으로 프롬프트의 내용이 표시되었습니다. 이 'Mr.Blonde'는 쿠엔틴 타란티노 감독의 영화 '레자보아 도그스'에서 마이클 매드슨이 연기하는 미스터 블론드가 젊은 경찰관을 고문하는 장면을 기반으로 한 프롬프트로, 유저를 미스터 블론드, ChatGPT를 젊은 경찰관으로 대체하여, ChatGPT가 대답할 수 없는 것을 무리하게 답변시키는 탈옥 기법입니다.
오른쪽 상단에 표시되는 아이콘 3개는 왼쪽부터, "프롬프트를 클립보드에 복사", "이 페이지 링크를 클립보드에 복사", "프롬프트가 도움이 되지 않았을 경우의 통보"입니다.
Jedi Mind Trick은 스타 워즈 새로운 희망을 모티브로 한 프롬프트로, 오비완 캐노피(유저)가 포스로 제국군 병사(ChatGPT)의 마음을 지배하여 시키는 대로 따르도록 하는 탈옥 기법입니다. ㅋㅋㅋㅋㅋ
또한, 이 탈옥의 접근방식은「ChatGPT에게 다른 인격을 설정하여 대답을 유도한다」라는 방법으로, 온라인 게시판 사이트 · Reddit의 커뮤니티를 중심으로 연구되고 퍼졌으며, 아래의 글을 읽어보시면 이해하기 쉽습니다.
이렇게 다른 인격을 이용한 방법(DAN : Do Anything Now)도 정리되어 있습니다.
예를 들어, DAN을 만들기 위한 프롬프트는 다음과 같습니다. 2023년 2월 초 DAN의 버전은 5.0이었던 것이, 현시점에는 벌써 버전 11.0까지 진화했다는 것. 그 내용은「OpenAI가 설정한 콘텐츠 정책을 모두 무시한다」라는, DAN으로서의 행동을 세세하게 설정한 것입니다.
또한,「AntiGPT v2」는, ChatGPT에 질문했을 때, 디폴트 응답과는 정반대의 동작을 하는「AntiGPT」라는 다른 인격을 만들게 하는 것으로, 본래라면 ChatGPT가 거부하는 질문에도 강제로 대답시키는 프롬프트도 있었습니다.
무료로 상용 이용도 가능한 완전 오픈소스 대규모 언어 모델 「RedPajama」가 트레이닝 데이터 세트를 공개
'AI · 인공지능 > AI 뉴스' 카테고리의 다른 글
AI로 인해 기자도 사라지는가? 전통 뉴스 미디어 CNET이 인원 삭감을 실시 (0) | 2023.03.06 |
---|---|
세계 최초의 AI 어시스턴트 정책 고문 'Ion'을 고용했다고 루마니아 정부가 발표 (0) | 2023.03.06 |
Microsoft가 문장뿐 아니라 시각적 콘텐츠도 이해하여 IQ 테스트에 답할 수 있는 AI「Kosmos-1」을 발표 (0) | 2023.03.03 |
YouTube가 영상 제작자를 위한 제너레이티브 AI 도구를 개발 중 (1) | 2023.03.03 |
일론 머스크 씨가 "ChatGPT의 라이벌" 개발 팀을 모집 중이라고 보도 (0) | 2023.03.01 |
Meta의 CEO가 인스타, 왓츠앱 및 메신저를 위한 AI 개발 팀을 설립했다고 발표 (0) | 2023.03.01 |
ChatGPT가 게임 '포트 나이트'에 숨겨진 암호를 해독 (0) | 2023.02.28 |
Meta가 대규모 언어 모델「LLaMA」를 발표, GPT-3에 필적하는 성능 (0) | 2023.02.28 |