반응형 AI · 인공지능/이미지 생성 AI146 마침내 Photoshop에 AI 기능 「Generative Fill」기능이 추가된다 Adobe가 이미지 편집 앱 'Photoshop'에 제네레이티브 AI 'Firefly'를 통합하고 AI 기능인 '생성 채우기' 기능을 추가한다고 발표했습니다. 「생성 채우기」는 「이미지의 확장을 생성」, 「이미지의 일부를 AI로 생성한 이미지로 치환」하는 조작이 가능합니다. Adobe | Adobe https://www.adobe.com 「생성 채우기」의 예제입니다. 먼저 이미지의 일부를 선택 상태로 만듭니다. 그런 다음 "생성 채우기(Generative Fill)"을 클릭합니다. 그러자 도로의 타이어 흔적이 사라졌습니다. 이어 도로의 중앙 부분을 선택. yellow road lines(노란색 차선)를 입력하고 Generate를 클릭합니다. 도로에 노란 차선이 그려졌습니다. 「생성 채우기」는, 이미지의 .. 2023. 5. 24. 「Stable Diffusion」공식 유료 앱 「DreamStudio」의 무료판 「StableStudio」를 오픈 소스로 공개 이미지 생성 AI 「Stable Diffusion」의 개발사인 Stability AI는 직관적인 조작으로 Stable Diffusion에 의한 이미지 생성을 실행할 수 있는 공식 웹 앱 「DreamStudio」를 제공하고 있습니다. 이 DreamStudio는 유료 서비스 입니다만, 새롭게 DreamStudio와 거의 같은 기능을 갖춘 무료 앱 「StableStudio」가 등장했습니다. StableStudio는 오픈 소스로 개발되었으며 앞으로도 기능을 확장할 예정입니다. Stability AI DreamStudio의 오픈 소스 미래, StableStudio 출시 | Stability AI Stability AI Releases StableStudio, the Open-Source Future of Drea.. 2023. 5. 19. 프롬프트를 입력하면 이미지의 객체를 변환해주는 'Edit Anything' 리뷰 「소파에 앉은 고양이」를 「의자에 앉은 고양이」의 이미지로 바꿔주는 느낌으로, 이미지에 찍힌 오브젝트의 모습을 남긴 채, 주위의 풍경만을 다른 장면으로 바꿀 수 있는 이미지 편집 서비스 「Edit Anything」이 공개되었으므로 실제로 사용해 보았습니다. Edit Anything | fal-serverless https://www.editanything.ai/ Edit Anything의 첫 화면은 이런 느낌. 먼저 위의 이미지 아이콘을 클릭하여 편집할 이미지를 업로드합니다. 그런 다음 바꾸고 싶은 객체를 클릭하고 "GENERATE MASKS"를 클릭합니다. Edit Anything이 객체를 인식하고 파란색으로 둘러싼 후, 선택사항을 3개 표시해 줍니다. 이 중에서 객체 전체를 올바르게 덮고 있는 것을 .. 2023. 5. 16. 「Stale Diffusion」개발사가 텍스트로 애니를 생성할 수 있는 「Stable Animation SDK」릴리즈 이미지 생성 AI "Stale Diffusion"을 개발한 Stability AI가 Stable Diffusion을 기반으로 텍스트에서 애니메이션을 생성할 수 있는 개발자용 도구 "Stable Animation SDK"를 출시했습니다. Stability AI가 「Stable Animation SDK」를 릴리즈 https://ko.stability.ai/blog/stable-animation-sdk 아래의 동영상을 보면 어떤 것인지 알 수 있습니다. Stable Animation 🎞 - YouTube Stable Animation SDK는 텍스트, 이미지, 동영상을 사용하여 다양한 형태로 애니메이션을 만들 수 있습니다. 입력한 텍스트에 따른 애니메이션이나 업로드한 이미지를 기반으로 동영상을 생성할 수 있습.. 2023. 5. 15. OpenAI가 텍스트와 이미지로 3D 모델을 생성하는 오픈 소스 AI 「Shap-E」를 발표 OpenAI가 텍스트와 이미지를 입력하여 3D 모델을 자동 생성하는 AI "Shap-E"를 발표했습니다. Shap-E는 오픈 소스로 개발되었으며 무료로 사용할 수 있습니다. GitHub - openai/shap-e: Generate 3D objects conditioned on text or images https://github.com/openai/shap-e GitHub - openai/shap-e: Generate 3D objects conditioned on text or imagesGenerate 3D objects conditioned on text or images. Contribute to openai/shap-e development by creating an account on GitH.. 2023. 5. 10. 업 스케일링 API를 「Stable Diffusion」개발사인 Stability AI가 발표 이미지 생성 AI의 Stable Diffusion을 개발한 Stability AI가 이미지의 선명도를 손상시키지 않고 이미지의 크기를 확대할 수 있는 이미지 업 스케일링 API를 발표했습니다. Stability AI가 이미지 업스케일링 API를 출시 https://stability.ai/blog/stability-ai-releases-image-upscaling-api Stability AI releases its Image Upscaling API — Stability AIThe Image Upscaling API is the latest addition to Stability AI’s existing image generation and editing APIs, like the popular text.. 2023. 5. 3. 「Stable Diffusion」개발사가 문자 표현도 자연스러운 이미지를 생성 AI「DeepFloyd IF」발표 문장(프롬프트)에서 이미지를 생성하는 AI "Stable Diffusion"을 개발한 Stability AI가 새로운 이미지 생성 AI 「DeepFloyd IF」를 발표했습니다. 이미지 속 문자를 어색함 없이 반영하는 등의 처리가 향상되었습니다. DeepFloyd IF — DeepFloyd https://deepfloyd.ai/deepfloyd-if DeepFloyd IF — DeepFloydWords fill the air: IF has a special affection for the text — and can embroider it on fabric, insert it into a stained-glass window, include it in a collage, light it up on a ne.. 2023. 5. 2. NVIDIA가 텍스트로 고해상도 영상을 생성하는 AI 모델 「VideoLDM」 발표 NVIDIA가 미국의 코넬 대학과 공동으로 개발한 AI 모델 "Video Latent Diffusion Model(VideoLDM)"을 발표했습니다. VideoLDM은 텍스트로 입력한 설명에 따라 최대 2048 x 1280픽셀 해상도, 24fps 동영상을 최대 4.7초까지 생성할 수 있습니다. Align your Latents: High-Resolution Video Synthesis with Latent Diffusion Models https://research.nvidia.com/labs/toronto-ai/VideoLDM/ NVIDIA Introduces AI That Generates High-resolution Videos Based On Text Descriptions - Tech News .. 2023. 4. 21. 손그림을 애니로 변환하는 오픈 소스 프로젝트「Animated Drawings」를 Meta AI가 릴리즈 Meta의 인공지능(AI) 연구소인 Meta AI 의 Fundamental AI Research(FAIR) 팀은 손으로 그린 캐릭터를 애니메이션으로 변환하는 오픈 소스 프로젝트 'Animated Drawings'를 2023년 4월 14일에 발표했습니다. Animated Drawings는 무료로 브라우저에서 경험할 수 있으며, 머리와 몸, 사지만 분명하면 상당히 어색한 낙서도 쉽게 움직일 수 있습니다. 또한, Animated Drawings는 오픈 소스로 게시되므로 GitHub에서 다운로드하여 더 자세한 옵션을 변경할 수 있습니다. Animated Drawings https://sketch.metademolab.com/ First-of-its-kind open source project brings you.. 2023. 4. 14. 「Stable Diffusion + Multi ControlNet」으로 실사같은 애니메이션을 생성 Stable Diffusion 등의 사전 학습이 끝난 모델에 대해서, 윤곽선이나 깊이, 화상의 영역 구분(세그먼테이션) 정보 등을 추가해 출력을 서포트하는 기술이 「ControlNet」입니다. 이 ControlNet을 사용하면 별도로 불러온 이미지에 찍힌 선화나 사람의 자세 등을 출력에 온전히 반영시킬 수 있습니다. 이 ControlNet을 복수로 사용하는 「Multi ControlNet」으로 실사의 영상을 충실하게 애니메이션화 한 영상이, 온라인 게시판 Reddit에 공개되었습니다. Stable Diffusion과 ControlNet을 함께 사용하면 포즈와 구도를 높은 정밀도로 지정할 수 있습니다. Reddit에서 공개된 영상은 아래에서 볼 수 있습니다. 왼쪽 상단에는 ControlNet에 추가된 실사.. 2023. 4. 13. 이전 1 ··· 4 5 6 7 8 9 10 ··· 15 다음 반응형