Skip to content

Jon-drugstore/sd-scripts

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

This repository contains training, generation and utility scripts for Stable Diffusion.

Change History is moved to the bottom of the page. 曎新履歎はペヌゞ末尟に移したした。

日本語版README

For easier use (GUI and PowerShell scripts etc...), please visit the repository maintained by bmaltais. Thanks to @bmaltais!

This repository contains the scripts for:

  • DreamBooth training, including U-Net and Text Encoder
  • Fine-tuning (native training), including U-Net and Text Encoder
  • LoRA training
  • Texutl Inversion training
  • Image generation
  • Model conversion (supports 1.x and 2.x, Stable Diffision ckpt/safetensors and Diffusers)

Stable Diffusion web UI now seems to support LoRA trained by sd-scripts. Thank you for great work!!!

About requirements.txt

These files do not contain requirements for PyTorch. Because the versions of them depend on your environment. Please install PyTorch at first (see installation guide below.)

The scripts are tested with PyTorch 1.12.1 and 1.13.0, Diffusers 0.10.2.

Links to how-to-use documents

Most of the documents are written in Japanese.

English translation by darkstorm2150 is here. Thanks to darkstorm2150!

Windows Required Dependencies

Python 3.10.6 and Git:

Give unrestricted script access to powershell so venv can work:

  • Open an administrator powershell window
  • Type Set-ExecutionPolicy Unrestricted and answer A
  • Close admin powershell window

Windows Installation

Open a regular Powershell terminal and type the following inside:

git clone https://github.com/kohya-ss/sd-scripts.git
cd sd-scripts

python -m venv venv
.\venv\Scripts\activate

pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116
pip install --upgrade -r requirements.txt
pip install -U -I --no-deps https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl

cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\
cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.py
cp .\bitsandbytes_windows\main.py .\venv\Lib\site-packages\bitsandbytes\cuda_setup\main.py

accelerate config

update: python -m venv venv is seemed to be safer than python -m venv --system-site-packages venv (some user have packages in global python).

Answers to accelerate config:

- This machine
- No distributed training
- NO
- NO
- NO
- all
- fp16

note: Some user reports ValueError: fp16 mixed precision requires a GPU is occurred in training. In this case, answer 0 for the 6th question: What GPU(s) (by id) should be used for training on this machine as a comma-separated list? [all]:

(Single GPU with id 0 will be used.)

about PyTorch and xformers

Other versions of PyTorch and xformers seem to have problems with training. If there is no other reason, please install the specified version.

Optional: Use Lion8bit

For Lion8bit, you need to upgrade bitsandbytes to 0.38.0 or later. Uninstall bitsandbytes, and for Windows, install the Windows version whl file from here or other sources, like:

pip install https://github.com/jllllll/bitsandbytes-windows-webui/raw/main/bitsandbytes-0.38.1-py3-none-any.whl

For upgrading, upgrade this repo with pip install ., and upgrade necessary packages manually.

Upgrade

When a new release comes out you can upgrade your repo with the following command:

cd sd-scripts
git pull
.\venv\Scripts\activate
pip install --use-pep517 --upgrade -r requirements.txt

Once the commands have completed successfully you should be ready to use the new version.

Credits

The implementation for LoRA is based on cloneofsimo's repo. Thank you for great work!

The LoRA expansion to Conv2d 3x3 was initially released by cloneofsimo and its effectiveness was demonstrated at LoCon by KohakuBlueleaf. Thank you so much KohakuBlueleaf!

License

The majority of scripts is licensed under ASL 2.0 (including codes from Diffusers, cloneofsimo's and LoCon), however portions of the project are available under separate license terms:

Memory Efficient Attention Pytorch: MIT

bitsandbytes: MIT

BLIP: BSD-3-Clause

Change History

15 Jun. 2023, 2023/06/15

  • Prodigy optimizer is supported in each training script. It is a member of D-Adaptation and is effective for DyLoRA training. PR #585 Please see the PR for details. Thanks to sdbds!

    • Install the package with pip install prodigyopt. Then specify the option like --optimizer_type="prodigy".
  • Arbitrary Dataset is supported in each training script (except XTI). You can use it by defining a Dataset class that returns images and captions.

    • Prepare a Python script and define a class that inherits train_util.MinimalDataset. Then specify the option like --dataset_class package.module.DatasetClass in each training script.
    • Please refer to MinimalDataset for implementation. I will prepare a sample later.
  • The following features have been added to the generation script.

    • Added an option --highres_fix_disable_control_net to disable ControlNet in the 2nd stage of Highres. Fix. Please try it if the image is disturbed by some ControlNet such as Canny.
    • Added Variants similar to sd-dynamic-propmpts in the prompt.
      • If you specify {spring|summer|autumn|winter}, one of them will be randomly selected.
      • If you specify {2$$chocolate|vanilla|strawberry}, two of them will be randomly selected.
      • If you specify {1-2$$ and $$chocolate|vanilla|strawberry}, one or two of them will be randomly selected and connected by and.
      • You can specify the number of candidates in the range 0-2. You cannot omit one side like -2 or 1-.
      • It can also be specified for the prompt option.
      • If you specify e or E, all candidates will be selected and the prompt will be repeated multiple times (--images_per_prompt is ignored). It may be useful for creating X/Y plots.
      • You can also specify --am {e$$0.2|0.4|0.6|0.8|1.0},{e$$0.4|0.7|1.0} --d 1234. In this case, 15 prompts will be generated with 5*3.
      • There is no weighting function.
  • 各孊習スクリプトでProdigyオプティマむザがサポヌトされたした。D-Adaptationの仲間でDyLoRAの孊習に有効ずのこずです。 PR #585 詳现はPRをご芧ください。sdbds氏に感謝したす。

    • pip install prodigyopt ずしおパッケヌゞをむンストヌルしおください。たた --optimizer_type="prodigy" のようにオプションを指定したす。
  • 各孊習スクリプトで任意のDatasetをサポヌトしたしたXTIを陀く。画像ずキャプションを返すDatasetクラスを定矩するこずで、孊習スクリプトから利甚できたす。

    • Pythonスクリプトを甚意し、train_util.MinimalDatasetを継承するクラスを定矩しおください。そしお各孊習スクリプトのオプションで --dataset_class package.module.DatasetClass のように指定しおください。
    • 実装方法は MinimalDataset を参考にしおください。のちほどサンプルを甚意したす。
  • 生成スクリプトに以䞋の機胜远加を行いたした。

    • Highres. Fixの2nd stageでControlNetを無効化するオプション --highres_fix_disable_control_net を远加したした。Canny等䞀郚のControlNetで画像が乱れる堎合にお詊しください。
    • プロンプトでsd-dynamic-propmptsに䌌たVariantをサポヌトしたした。
      • {spring|summer|autumn|winter} のように指定するず、いずれかがランダムに遞択されたす。
      • {2$$chocolate|vanilla|strawberry} のように指定するず、いずれか2個がランダムに遞択されたす。
      • {1-2$$ and $$chocolate|vanilla|strawberry} のように指定するず、1個か2個がランダムに遞択され and で接続されたす。
      • 個数のレンゞ指定では0-2のように0個も指定可胜です。-2や1-のような片偎の省略はできたせん。
      • プロンプトオプションに察しおも指定可胜です。
      • {e$$chocolate|vanilla|strawberry} のようにeたたはEを指定するず、すべおの候補が遞択されプロンプトが耇数回繰り返されたす--images_per_promptは無芖されたす。X/Y plotの䜜成に䟿利かもしれたせん。
      • --am {e$$0.2|0.4|0.6|0.8|1.0},{e$$0.4|0.7|1.0} --d 1234のような指定も可胜です。この堎合、5*3で15回のプロンプトが生成されたす。
      • Weightingの機胜はありたせん。

8 Jun. 2023, 2023/06/08

  • Fixed a bug where clip skip did not work when training with weighted captions (--weighted_captions specified) and when generating sample images during training.
  • 重みづけキャプションでの孊習時--weighted_captions指定時および孊習䞭のサンプル画像生成時にclip skipが機胜しない䞍具合を修正したした。

6 Jun. 2023, 2023/06/06

  • Fix train_network.py to probably work with older versions of LyCORIS.
  • gen_img_diffusers.py now supports BREAK syntax.
  • train_network.pyがLyCORISの以前のバヌゞョンでも恐らく動䜜するよう修正したした。
  • gen_img_diffusers.py で BREAK 構文をサポヌトしたした。

3 Jun. 2023, 2023/06/03

  • Max Norm Regularization is now available in train_network.py. PR #545 Thanks to AI-Casanova!

    • Max Norm Regularization is a technique to stabilize network training by limiting the norm of network weights. It may be effective in suppressing overfitting of LoRA and improving stability when used with other LoRAs. See PR for details.
    • Specify as --scale_weight_norms=1.0. It seems good to try from 1.0.
    • The networks other than LoRA in this repository (such as LyCORIS) do not support this option.
  • Three types of dropout have been added to train_network.py and LoRA network.

    • Dropout is a technique to suppress overfitting and improve network performance by randomly setting some of the network outputs to 0.
    • --network_dropout is a normal dropout at the neuron level. In the case of LoRA, it is applied to the output of down. Proposed in PR #545 Thanks to AI-Casanova!
      • --network_dropout=0.1 specifies the dropout probability to 0.1.
      • Note that the specification method is different from LyCORIS.
    • For LoRA network, --network_args can specify rank_dropout to dropout each rank with specified probability. Also module_dropout can be specified to dropout each module with specified probability.
      • Specify as --network_args "rank_dropout=0.2" "module_dropout=0.1".
    • --network_dropout, rank_dropout, and module_dropout can be specified at the same time.
    • Values of 0.1 to 0.3 may be good to try. Values greater than 0.5 should not be specified.
    • rank_dropout and module_dropout are original techniques of this repository. Their effectiveness has not been verified yet.
    • The networks other than LoRA in this repository (such as LyCORIS) do not support these options.
  • Added an option --scale_v_pred_loss_like_noise_pred to scale v-prediction loss like noise prediction in each training script.

    • By scaling the loss according to the time step, the weights of global noise prediction and local noise prediction become the same, and the improvement of details may be expected.
    • See this article by xrg for details (written in Japanese). Thanks to xrg for the great suggestion!
  • Max Norm Regularizationがtrain_network.pyで䜿えるようになりたした。PR #545 AI-Casanova氏に感謝したす。

    • Max Norm Regularizationは、ネットワヌクの重みのノルムを制限するこずで、ネットワヌクの孊習を安定させる手法です。LoRAの過孊習の抑制、他のLoRAず䜵甚した時の安定性の向䞊が期埅できるかもしれたせん。詳现はPRを参照しおください。
    • --scale_weight_norms=1.0のように --scale_weight_norms で指定しおください。1.0から詊すず良いようです。
    • LyCORIS等、圓リポゞトリ以倖のネットワヌクは珟時点では未察応です。
  • train_network.py およびLoRAに蚈䞉皮類のdropoutを远加したした。

    • dropoutはネットワヌクの䞀郚の出力をランダムに0にするこずで、過孊習の抑制、ネットワヌクの性胜向䞊等を図る手法です。
    • --network_dropout はニュヌロン単䜍の通垞のdropoutです。LoRAの堎合、downの出力に察しお適甚されたす。PR #545 で提案されたした。AI-Casanova氏に感謝したす。
      • --network_dropout=0.1 などずするこずで、dropoutの確率を指定できたす。
      • LyCORISずは指定方法が異なりたすのでご泚意ください。
    • LoRAの堎合、--network_argsにrank_dropoutを指定するこずで各rankを指定確率でdropoutしたす。たた同じくLoRAの堎合、--network_argsにmodule_dropoutを指定するこずで各モゞュヌルを指定確率でdropoutしたす。
      • --network_args "rank_dropout=0.2" "module_dropout=0.1" のように指定したす。
    • --network_dropout、rank_dropout 、 module_dropout は同時に指定できたす。
    • それぞれの倀は0.1~0.3皋床から詊しおみるず良いかもしれたせん。0.5を超える倀は指定しない方が良いでしょう。
    • rank_dropoutおよびmodule_dropoutは圓リポゞトリ独自の手法です。有効性の怜蚌はただ行っおいたせん。
    • これらのdropoutはLyCORIS等、圓リポゞトリ以倖のネットワヌクは珟時点では未察応です。
  • 各孊習スクリプトにv-prediction lossをnoise predictionず同様の倀にスケヌルするオプション--scale_v_pred_loss_like_noise_predを远加したした。

    • タむムステップに応じおlossをスケヌルするこずで、 倧域的なノむズの予枬ず局所的なノむズの予枬の重みが同じになり、ディテヌルの改善が期埅できるかもしれたせん。
    • 詳现はxrg氏のこちらの蚘事をご参照くださいnoise_predictionモデルずv_predictionモデルの損倱 - 募配降䞋党青幎局 xrg氏の玠晎らしい蚘事に感謝したす。

31 May 2023, 2023/05/31

  • Show warning when image caption file does not exist during training. PR #533 Thanks to TingTingin!

    • Warning is also displayed when using class+identifier dataset. Please ignore if it is intended.
  • train_network.py now supports merging network weights before training. PR #542 Thanks to u-haru!

    • --base_weights option specifies LoRA or other model files (multiple files are allowed) to merge.
    • --base_weights_multiplier option specifies multiplier of the weights to merge (multiple values are allowed). If omitted or less than base_weights, 1.0 is used.
    • This is useful for incremental learning. See PR for details.
  • Show warning and continue training when uploading to HuggingFace fails.

  • 孊習時に画像のキャプションファむルが存圚しない堎合、譊告が衚瀺されるようになりたした。 PR #533 TingTingin氏に感謝したす。

    • class+identifier方匏のデヌタセットを利甚しおいる堎合も譊告が衚瀺されたす。意図しおいる通りの堎合は無芖しおください。
  • train_network.py に孊習前にモデルにnetworkの重みをマヌゞする機胜が远加されたした。 PR #542 u-haru氏に感謝したす。

    • --base_weights オプションでLoRA等のモデルファむル耇数可を指定するず、それらの重みをマヌゞしたす。
    • --base_weights_multiplier オプションでマヌゞする重みの倍率耇数可を指定できたす。省略時たたはbase_weightsよりも数が少ない堎合は1.0になりたす。
    • 差分远加孊習などにご利甚ください。詳现はPRをご芧ください。
  • HuggingFaceぞのアップロヌドに倱敗した堎合、譊告を衚瀺しそのたた孊習を続行するよう倉曎したした。

25 May 2023, 2023/05/25

  • D-Adaptation v3.0 is now supported. PR #530 Thanks to sdbds!
    • --optimizer_type now accepts DAdaptAdamPreprint, DAdaptAdanIP, and DAdaptLion.
    • DAdaptAdam is now new. The old DAdaptAdam is available with DAdaptAdamPreprint.
    • Simply specifying DAdaptation will use DAdaptAdamPreprint (same behavior as before).
    • You need to install D-Adaptation v3.0. After activating venv, please do pip install -U dadaptation.
    • See PR and D-Adaptation documentation for details.
  • D-Adaptation v3.0がサポヌトされたした。 PR #530 sdbds氏に感謝したす。
    • --optimizer_typeにDAdaptAdamPreprint、DAdaptAdanIP、DAdaptLion が远加されたした。
    • DAdaptAdamが新しくなりたした。今たでのDAdaptAdamはDAdaptAdamPreprintで䜿甚できたす。
    • 単に DAdaptation を指定するずDAdaptAdamPreprintが䜿甚されたす今たでず同じ動き。
    • D-Adaptation v3.0のむンストヌルが必芁です。venvを有効にした埌 pip install -U dadaptation ずしおください。
    • 詳现はPRおよびD-Adaptationのドキュメントを参照しおください。

22 May 2023, 2023/05/22

  • Fixed several bugs.
    • The state is saved even when the --save_state option is not specified in fine_tune.py and train_db.py. PR #521 Thanks to akshaal!
    • Cannot load LoRA without alpha. PR #527 Thanks to Manjiz!
    • Minor changes to console output during sample generation. PR #515 Thanks to yanhuifair!
  • The generation script now uses xformers for VAE as well.
  • いく぀かのバグ修正を行いたした。
    • fine_tune.pyずtrain_db.pyで--save_stateオプション未指定時にもstateが保存される。 PR #521 akshaal氏に感謝したす。
    • alphaを持たないLoRAを読み蟌めない。PR #527 Manjiz氏に感謝したす。
    • サンプル生成時のコン゜ヌル出力の軜埮な倉曎。PR #515 yanhuifair氏に感謝したす。
  • 生成スクリプトでVAEに぀いおもxformersを䜿うようにしたした。

16 May 2023, 2023/05/16

  • Fixed an issue where an error would occur if the encoding of the prompt file was different from the default. PR #510 Thanks to sdbds!
    • Please save the prompt file in UTF-8.
  • プロンプトファむルの゚ンコヌディングがデフォルトず異なる堎合に゚ラヌが発生する問題を修正したした。 PR #510 sdbds氏に感謝したす。
    • プロンプトファむルはUTF-8で保存しおください。

15 May 2023, 2023/05/15

  • Added English translation of documents by darkstorm2150. Thank you very much!

  • The prompt for sample generation during training can now be specified in .toml or .json. PR #504 Thanks to Linaqruf!

    • For details on prompt description, please see the PR.
  • darkstorm2150氏にドキュメント類を英蚳しおいただきたした。ありがずうございたす

  • 孊習䞭のサンプル生成のプロンプトを.tomlたたは.jsonで指定可胜になりたした。 PR #504 Linaqruf氏に感謝したす。

    • プロンプト蚘述の詳现は圓該PRをご芧ください。

11 May 2023, 2023/05/11

  • Added an option --dim_from_weights to train_network.py to automatically determine the dim(rank) from the weight file. PR #491 Thanks to AI-Casanova!

    • It is useful in combination with resize_lora.py. Please see the PR for details.
  • Fixed a bug where the noise resolution was incorrect with Multires noise. PR #489 Thanks to sdbds!

    • Please see the PR for details.
  • The image generation scripts can now use img2img and highres fix at the same time.

  • Fixed a bug where the hint image of ControlNet was incorrectly BGR instead of RGB in the image generation scripts.

  • Added a feature to the image generation scripts to use the memory-efficient VAE.

    • If you specify a number with the --vae_slices option, the memory-efficient VAE will be used. The maximum output size will be larger, but it will be slower. Please specify a value of about 16 or 32.
    • The implementation of the VAE is in library/slicing_vae.py.
  • train_network.pyにdim(rank)を重みファむルから自動決定するオプション--dim_from_weightsが远加されたした。 PR #491 AI-Casanova氏に感謝したす。

    • resize_lora.pyず組み合わせるず有甚です。詳现はPRもご参照ください。
  • Multires noiseでノむズ解像床が正しくない䞍具合が修正されたした。 PR #489 sdbds氏に感謝したす。

    • 詳现は圓該PRをご参照ください。
  • 生成スクリプトでimg2imgずhighres fixを同時に䜿甚できるようにしたした。

  • 生成スクリプトでControlNetのhint画像が誀っおBGRだったのをRGBに修正したした。

  • 生成スクリプトで省メモリ化VAEを䜿えるよう機胜远加したした。

    • --vae_slicesオプションに数倀を指定するず、省メモリ化VAEを甚いたす。出力可胜な最倧サむズが倧きくなりたすが、遅くなりたす。16たたは32皋床の倀を指定しおください。
    • VAEの実装はlibrary/slicing_vae.pyにありたす。

7 May 2023, 2023/05/07

  • The documentation has been moved to the docs folder. If you have links, please change them.

  • Removed gradio from requirements.txt.

  • DAdaptAdaGrad, DAdaptAdan, and DAdaptSGD are now supported by DAdaptation. PR#455 Thanks to sdbds!

    • DAdaptation needs to be installed. Also, depending on the optimizer, DAdaptation may need to be updated. Please update with pip install --upgrade dadaptation.
  • Added support for pre-calculation of LoRA weights in image generation scripts. Specify --network_pre_calc.

    • The prompt option --am is available. Also, it is disabled when Regional LoRA is used.
  • Added Adaptive noise scale to each training script. Specify a number with --adaptive_noise_scale to enable it.

    • Experimental option. It may be removed or changed in the future.
    • This is an original implementation that automatically adjusts the value of the noise offset according to the absolute value of the mean of each channel of the latents. It is expected that appropriate noise offsets will be set for bright and dark images, respectively.
    • Specify it together with --noise_offset.
    • The actual value of the noise offset is calculated as noise_offset + abs(mean(latents, dim=(2,3))) * adaptive_noise_scale. Since the latent is close to a normal distribution, it may be a good idea to specify a value of about 1/10 to the same as the noise offset.
    • Negative values can also be specified, in which case the noise offset will be clipped to 0 or more.
  • Other minor fixes.

  • ドキュメントをdocsフォルダに移動したした。リンク等を匵られおいる堎合は倉曎をお願いいたしたす。

  • requirements.txtからgradioを削陀したした。

  • DAdaptationで新しくDAdaptAdaGrad、DAdaptAdan、DAdaptSGDがサポヌトされたした。PR#455 sdbds氏に感謝したす。

    • dadaptationのむンストヌルが必芁です。たたオプティマむザによっおはdadaptationの曎新が必芁です。pip install --upgrade dadaptationで曎新しおください。
  • 画像生成スクリプトでLoRAの重みの事前蚈算をサポヌトしたした。--network_pre_calcを指定しおください。

    • プロンプトオプションの--amが利甚できたす。たたRegional LoRA䜿甚時には無効になりたす。
  • 各孊習スクリプトにAdaptive noise scaleを远加したした。--adaptive_noise_scaleで数倀を指定するず有効になりたす。

    • 実隓的オプションです。将来的に削陀、仕様倉曎される可胜性がありたす。
    • Noise offsetの倀を、latentsの各チャネルの平均倀の絶察倀に応じお自動調敎するオプションです。独自の実装で、明るい画像、暗い画像に察しおそれぞれ適切なnoise offsetが蚭定されるこずが期埅されたす。
    • --noise_offset ず同時に指定しおください。
    • 実際のNoise offsetの倀は noise_offset + abs(mean(latents, dim=(2,3))) * adaptive_noise_scale で蚈算されたす。 latentは正芏分垃に近いためnoise_offsetの1/10同皋床の倀を指定するずよいかもしれたせん。
    • 負の倀も指定でき、その堎合はnoise offsetは0以䞊にclipされたす。
  • その他の现かい修正を行いたした。

Please read Releases for recent updates. 最近の曎新情報は Release をご芧ください。

Naming of LoRA

The LoRA supported by train_network.py has been named to avoid confusion. The documentation has been updated. The following are the names of LoRA types in this repository.

  1. LoRA-LierLa : (LoRA for Li n e a r La yers)

    LoRA for Linear layers and Conv2d layers with 1x1 kernel

  2. LoRA-C3Lier : (LoRA for C olutional layers with 3 x3 Kernel and Li n e a r layers)

    In addition to 1., LoRA for Conv2d layers with 3x3 kernel

LoRA-LierLa is the default LoRA type for train_network.py (without conv_dim network arg). LoRA-LierLa can be used with our extension for AUTOMATIC1111's Web UI, or with the built-in LoRA feature of the Web UI.

To use LoRA-C3Lier with Web UI, please use our extension.

LoRAの名称に぀いお

train_network.py がサポヌトするLoRAに぀いお、混乱を避けるため名前を付けたした。ドキュメントは曎新枈みです。以䞋は圓リポゞトリ内の独自の名称です。

  1. LoRA-LierLa : (LoRA for Li n e a r La yers、リ゚ラず読みたす)

    Linear 局およびカヌネルサむズ 1x1 の Conv2d 局に適甚されるLoRA

  2. LoRA-C3Lier : (LoRA for C olutional layers with 3 x3 Kernel and Li n e a r layers、セリアず読みたす)

    1.に加え、カヌネルサむズ 3x3 の Conv2d 局に適甚されるLoRA

LoRA-LierLa はWeb UI向け拡匵、たたはAUTOMATIC1111氏のWeb UIのLoRA機胜で䜿甚するこずができたす。

LoRA-C3Lierを䜿いWeb UIで生成するには拡匵を䜿甚しおください。

Sample image generation during training

A prompt file might look like this, for example

# prompt 1
masterpiece, best quality, (1girl), in white shirts, upper body, looking at viewer, simple background --n low quality, worst quality, bad anatomy,bad composition, poor, low effort --w 768 --h 768 --d 1 --l 7.5 --s 28

# prompt 2
masterpiece, best quality, 1boy, in business suit, standing at street, looking back --n (low quality, worst quality), bad anatomy,bad composition, poor, low effort --w 576 --h 832 --d 2 --l 5.5 --s 40

Lines beginning with # are comments. You can specify options for the generated image with options like --n after the prompt. The following can be used.

  • --n Negative prompt up to the next option.
  • --w Specifies the width of the generated image.
  • --h Specifies the height of the generated image.
  • --d Specifies the seed of the generated image.
  • --l Specifies the CFG scale of the generated image.
  • --s Specifies the number of steps in the generation.

The prompt weighting such as ( ) and [ ] are working.

サンプル画像生成

プロンプトファむルは䟋えば以䞋のようになりたす。

# prompt 1
masterpiece, best quality, (1girl), in white shirts, upper body, looking at viewer, simple background --n low quality, worst quality, bad anatomy,bad composition, poor, low effort --w 768 --h 768 --d 1 --l 7.5 --s 28

# prompt 2
masterpiece, best quality, 1boy, in business suit, standing at street, looking back --n (low quality, worst quality), bad anatomy,bad composition, poor, low effort --w 576 --h 832 --d 2 --l 5.5 --s 40

# で始たる行はコメントになりたす。--n のように「ハむフン二個英小文字」の圢でオプションを指定できたす。以䞋が䜿甚可胜できたす。

  • --n Negative prompt up to the next option.
  • --w Specifies the width of the generated image.
  • --h Specifies the height of the generated image.
  • --d Specifies the seed of the generated image.
  • --l Specifies the CFG scale of the generated image.
  • --s Specifies the number of steps in the generation.

( ) や [ ] などの重みづけも動䜜したす。

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 100.0%