3Dアーティストとしての仕事の中で、インタラクティブなスケッチから3D生成は、クリエイティブなコントロールにおいて最も大きな進歩だと感じています。それはアーティストを置き換えるのではなく、アイデアを迅速に反復する能力を拡張するものです。この記事は、コンセプトアーティスト、インディー開発者、プロダクトデザイナーなど、2Dのビジョンを3D形式に変換したいが、ゼロからの技術的なモデリングに手間取りたくないクリエイター向けです。私の具体的なワークフロー、私が得た具体的なメリット、そしてこれらのAI生成アセットを実際の制作パイプラインにシームレスに統合する方法を説明します。
主なポイント:
初期のワンクリック3Dジェネレーターは、ブラックボックスのように感じられました。スケッチやテキストプロンプトを入力すると、近いけれどもプロポーションや主要な特徴が根本的に間違っているモデルが返ってきました。これらの問題を修正するには、メッシュを従来のソフトウェアにインポートして再モデリングする必要があり、それでは目的が果たせません。私の意図とAIの解釈との間のギャップが大きすぎたため、ムードボード以外には使えませんでした。
Tripo AIのようなプラットフォームは、インタラクティブなワークフローでパラダイムシフトをもたらしました。単一の出力ではなく、スケッチ、生成、そして3Dビューポート上で再度直接スケッチして詳細を修正または追加できるようになりました。これにより、生成は会話に変わりました。「胴体は良いが、この腕を伸ばしてほしい」と言うと、AIはそれに応じて調整します。これにより、私が再び主導権を握ることができました。
主なメリットはアイデア出しの段階での速度です。以前は1つをブロックアウトするのにかかっていた時間で、スケッチから5〜10種類の異なる3Dコンセプトを探索できます。次に、描画はできるがモデリングはできないチームメンバーのために、3Dプロトタイピングを民主化します。彼らは今、3Dアセットパイプラインに直接貢献できます。最後に、2Dの線が3Dのボリュームにどのように変換されるかを視覚的に示す優れた学習ツールとしても機能します。
私は完成されたレンダリング済みの作品は使いません。AIはシェーディングではなく、構造を解釈する必要があります。私の理想的な入力は、明確なシルエットを持つ白い背景のクリーンな線画です。
最初の生成後、すぐにインタラクティブなスケッチツールを使用します。ここで魔法が起こります。
このプロセス(評価、スケッチ、洗練)を、ベースメッシュが私のビジョンと一致するまで、モデルごとに2〜4回繰り返します。
フォームが正しいと判断したら、内蔵の後処理ツールに進みます。私の標準的な手順は次のとおりです。
2Dイラストレーターではなく、3Dモデラーのように考えましょう。等高線を使用します。キャラクターの場合、前と横にシンプルな中心線を入れることで、ポーズの精度が劇的に向上します。毛羽立った線は避け、多くの短い引っかき傷のような線よりも、単一の滑らかなストロークの方がAIにとって読み取りやすいです。
すべてを一度に修正しようとしないでください。階層的に作業します。まず主要な大きな形状(体、頭、主要な塊)を完璧にし、次に二次的な形状(アーマープレート、衣服のしわ)に移り、最後に三次的な詳細を追加します。セグメンテーションツールは、全体に影響を与えずに編集する部分を分離するのに非常に役立ちます。
AIは素晴らしいアシスタントであり、読心術師ではありません。私は最低でも2〜3回の修正サイクルを期待しています。私のルールは、最初の生成後にベースの形状が70%できていれば合格です。スケッチを根本的に誤解している場合は、ツールと戦うのではなく、描画を簡素化または明確にするために戻ります。
インタラクティブなスケッチは、デザインがまず私の頭の中や紙に存在する場合、特にユニークなキャラクター、小道具、または建築コンセプトのために使用します。より一般的な、またはムードベースのアセット(「素朴な木製の樽」など)の場合、ワンクリックジェネレーターへのテキストプロンプトの方が速いかもしれません。
インタラクティブにガイドされたモデルの忠実度ははるかに高くなります。プロポーションや特徴を反復的に修正しているため、最終的な出力は私のデザイン意図を直接反映したものです。ワンクリックの出力は驚くほど刺激的かもしれませんが、それらは解釈であり、翻訳ではありません。
ワンクリックは単一のアセットでは高速ですが、そのアセットはしばしば「正しく」ありません。インタラクティブなスケッチは、最初の時間投資がわずかに長く(10〜15分のガイド付き修正)、しかし、生産準備の整ったベースメッシュを生成します。私にとって、手動モデリングの4〜8時間を節約することは、15分のAIガイド作業に値します。
私は常にAIプラットフォームにリトポロジーとUVの最初のパスを処理させます。その結果は素晴らしい出発点となります。主要なキャラクターの場合、リトポロジーされたメッシュをBlenderやMayaのような専用ツールにインポートし、変形のためのエッジフローを最適化したり、より良いテクセル密度を得るためにUVアイランドを調整したりします。
AI生成のテクスチャは素晴らしいベースですが、様式化された、または特定のPBRワークフローの場合、それらをガイドとして使用します。しばしば、AIテクスチャを新しいUVにベイクし、それをSubstance Painterでカラーマップまたはマスクとして使用して、適切なラフネスとメタリックマップを含むよりニュアンスのあるマテリアルを構築します。
リギングの前に、3Dソフトウェアで最終チェックを行います。不要な頂点のクリーンアップ、法線の確認、トランスフォームの適用などです。このインタラクティブなワークフローからのモデルは、通常、直接スキンを適用できるほどクリーンです。ゲームエンジンの場合、LODを作成し、最終的な三角形数が意図された用途に適していることを確認します。
moving at the speed of creativity, achieving the depths of imagination.
テキスト・画像から3Dモデルを生成
毎月無料クレジット付与
究極のディテール再現