Willhart(@Willhart_H) 's Twitter Profile Photo

trevor baylis I read most of it. Curious where the line goes, and if controlNET created images would be closer? For example the ones created with Depth2Image or Pose2Image:

@TrevyLimited I read most of it. Curious where the line goes, and if controlNET created images would be closer? For example the ones created with Depth2Image or Pose2Image:
account_circle
Willhart(@Willhart_H) 's Twitter Profile Photo

EpicFail🔞 trevor baylis On the depth2image example in particular the whole composition of the image is clearly decided by a human beforehand. Pose2image is a bit more unclear to me.

account_circle
forasteran(@forasteran) 's Twitter Profile Photo

シンプルで良さげ!
Python実行でブラウザの中で棒人間グリグリできるやつw

↓使い方
ControlNet「棒人間画像」作成スクリプトで好きなポーズの姿勢制御用画像を作る方法
economylife.net/controlnet-pos…

↓コード
Posex - Estimated Image Generator for Pose2Image
🔧github.com/hnmr293/posex

account_circle
丁稚(443番煎じ)(@masaodx007) 's Twitter Profile Photo

pose2image があればそうなりなりますよね
あれ、熱すぎ

以前、少年ジャンプとカヤックが頑張って作ったけど、こちらはこちらで進化してしまった。

account_circle
ときば(@Tokiver_JP) 's Twitter Profile Photo

OpenPose風モデルを自動生成する機能をBlenderでスクラッチ実装して、ControlNetのpose2imageで推論してみた。

OpenPose風モデルを自動生成する機能をBlenderでスクラッチ実装して、ControlNetのpose2imageで推論してみた。
account_circle
Michael Cameron(@chr0n0kun) 's Twitter Profile Photo

wouldn't these pose2image AI things work better if the color of each bone encoded an unambiguous orientation? this seems simple enough?

account_circle