成人动漫一区二区三区-国产精品久久久久影院-狠狠色综合网站久久久久久久-两个黑人大战嫩白金发美女-欧美在线观看-少妇太爽了在线观看

使用 NVIDIA A40 實(shí)現(xiàn)Stable Diffusion:詳細(xì)步驟指南
發(fā)布時(shí)間: 2024-08-07 15:08

Stable Diffusion 是一種人工智能模型,可將簡(jiǎn)單的文本提示轉(zhuǎn)換為令人驚嘆的高分辨率圖像,為藝術(shù)家、設(shè)計(jì)師和愛(ài)好者開(kāi)辟了創(chuàng)意可能性。然而,就像所有我們討論過(guò)的生成式人工智能模型,Stable Diffusion需要大量的計(jì)算資源。


捷智算平臺(tái)可訪問(wèn) NVIDIA A40 GPU,旨在加速 AI 工作負(fù)載。通過(guò)將Stable Diffusion與 A40 的高性能功能相結(jié)合,您可以生成復(fù)雜的藝術(shù)品、嘗試各種風(fēng)格,并在比僅使用 CPU 更短的時(shí)間內(nèi)將您的藝術(shù)構(gòu)想變?yōu)楝F(xiàn)實(shí)。


無(wú)論您是經(jīng)驗(yàn)豐富的 AI 藝術(shù)家還是好奇的初學(xué)者,本指南都將引導(dǎo)您在捷智算平臺(tái)上使用 NVIDIA A40 實(shí)現(xiàn)Stable Diffusion。我們將介紹從獲取模型到啟動(dòng)第一個(gè)圖像生成項(xiàng)目的所有內(nèi)容。


選擇您的型號(hào)

第一步是選擇模型。在本指南中,我們將使用Stable AI 的Stable Diffusion模型。該模型及其文檔位于 hugging face 上。


來(lái)源:Stability AI


從 hugging face 獲取模型時(shí),您首先必須創(chuàng)建一個(gè)帳戶。完成后,您必須生成一個(gè)訪問(wèn)令牌,您將使用該令牌將模型拉入您的 VM。為此,請(qǐng)單擊您的個(gè)人資料圖片并導(dǎo)航到“設(shè)置”。




單擊“訪問(wèn)令牌”,然后單擊“創(chuàng)建新令牌”。



選擇此令牌的所有必要權(quán)限、您希望它訪問(wèn)的存儲(chǔ)庫(kù)、您希望它訪問(wèn)的組織等等。完成后,單擊“創(chuàng)建令牌”。復(fù)制令牌并將其保存在安全的地方。


接下來(lái),在捷智算平臺(tái)上創(chuàng)建項(xiàng)目并創(chuàng)建虛擬機(jī)。我們將使用 NVIDIA A40 以及 2 個(gè) vCPU、8GB 內(nèi)存和 150GB 啟動(dòng)盤。



通過(guò) SSH 進(jìn)入您的虛擬機(jī),然后運(yùn)行更新和升級(jí)命令。

sudo apt update && sudo apt upgrade -y



然后安裝 pip,我們將在安裝其他 Python 庫(kù)和框架時(shí)使用它,命令如下:

apt install python3-pip



接下來(lái),我們將在機(jī)器上安裝虛擬環(huán)境。即使您在虛擬機(jī)中工作,出于以下原因,最好這樣做:


  • 隔離:虛擬環(huán)境隔離了項(xiàng)目的 Python 依賴項(xiàng),從而避免了可能需要同一庫(kù)的不同版本的不同項(xiàng)目之間發(fā)生沖突。在沒(méi)有虛擬環(huán)境的情況下為一個(gè)項(xiàng)目安裝庫(kù)可能會(huì)破壞依賴于不同版本的另一個(gè)項(xiàng)目。

  • 可重復(fù)性:虛擬環(huán)境確保您的項(xiàng)目具有正確運(yùn)行所需的精確依賴關(guān)系,從而更容易與他人共享您的項(xiàng)目或?qū)⑵洳渴鸬缴a(chǎn)中,因?yàn)槟梢源_信環(huán)境將是相同的。

  • 整潔:虛擬環(huán)境使整個(gè)系統(tǒng)的 Python 安裝保持整潔。您不會(huì)因項(xiàng)目特定的依賴項(xiàng)而弄亂虛擬機(jī)的全局庫(kù),從而更輕松地在虛擬機(jī)上管理 Python。


即使您在提供一定隔離的云虛擬機(jī)中工作,虛擬環(huán)境也能對(duì)特定于您的項(xiàng)目的依賴項(xiàng)提供更細(xì)粒度的控制。


我們將使用venv在本指南中,但您可以使用不同的工具來(lái)管理您的虛擬環(huán)境,例如conda。由于我們使用的是 Ubuntu 系統(tǒng),因此我們必須使用以下命令安裝 python3-venv 包。

apt install python3.10-venv



現(xiàn)在,我們將為項(xiàng)目創(chuàng)建一個(gè)文件夾并導(dǎo)航到其中。

mkdir stable_diffusion && cd stable_diffusion


我們將使用之前安裝的 venv 在此文件夾中創(chuàng)建虛擬環(huán)境。

python3 -m venv venv



您應(yīng)該在此目錄中有一個(gè) venv 文件夾,如上圖所示。接下來(lái),使用此命令激活虛擬環(huán)境。

source venv/bin/activate



激活虛擬環(huán)境后,我們可以安裝所需的庫(kù)和依賴項(xiàng)。

pip install torch torchvision torchaudio diffusers huggingface_hub matplotlib accelerate transformers sentencepiece protobuf


這需要一點(diǎn)時(shí)間才能運(yùn)行。完成后,您就可以在捷智算平臺(tái)上使用穩(wěn)定擴(kuò)散了。



接下來(lái),我們將創(chuàng)建一個(gè)腳本來(lái)在虛擬機(jī)上測(cè)試該模型。


首先,我們將創(chuàng)建一個(gè)文件夾來(lái)保存我們想要用這個(gè)模型生成的圖像。

mkdir generated_images


然后,我們開(kāi)始編寫代碼。

導(dǎo)入您需要的所有模塊。


import os

import torch

from diffusers import DiffusionPipeline

from huggingface_hub import HfFolder, login

from PIL import Image


接下來(lái),我們必須驗(yàn)證我們的 Hugging Face ID 來(lái)提取模型。


# Set your Hugging Face token

token = "your_hugging_face_token"

os.environ["HF_AUTH_TOKEN"] = token

HfFolder.save_token(token)


# Login with your token

login(token=token)


該令牌將是您之前創(chuàng)建的 Hugging Face 令牌。


警告:將 Hugging Face 令牌(或任何密鑰)留在代碼庫(kù)中存在安全風(fēng)險(xiǎn)。訪問(wèn)您代碼的人可能會(huì)竊取令牌并用它來(lái)生成圖片,甚至訪問(wèn)您的 Hugging Face 帳戶。


始終使用環(huán)境變量安全地存儲(chǔ)令牌、密碼和其他機(jī)密,以防止這種情況發(fā)生。這樣可以將它們與代碼分開(kāi),并使它們更難被意外泄露。


接下來(lái),我們使用Diffusion Pipeline加載模型。


# Load the model using DiffusionPipeline

pipe = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-3-medium-diffusers", torch_dtype=torch.float16)


pipe = pipe.to("cuda")


這幾行代碼執(zhí)行與加載和配置用于圖像生成的擴(kuò)散模型相關(guān)的兩個(gè)關(guān)鍵操作:


  • 加載模型:

DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-3-medium-diffusers"):此行使用來(lái)自擴(kuò)散器庫(kù)的 DiffusionPipeline 類的 from_pretrained 方法。它從 Hugging Face Hub 下載預(yù)先訓(xùn)練的擴(kuò)散模型。此處加載的具體模型是“stabilityai/stable-diffusion-3-medium-diffusers”,它是 Stable Diffusion 3 模型的中型版本。


  • 將模型移至 GPU:

pipe.to("cuda"):此行將加載的模型管道(管道)移動(dòng)到啟用 CUDA 的設(shè)備,如果可用,則為圖形處理單元 (GPU),在我們的例子中,它是。如上所述,擴(kuò)散模型的計(jì)算成本很高,與在 CPU 上運(yùn)行相比,GPU 可以顯著加速圖像生成過(guò)程。


接下來(lái),我們使用加載的擴(kuò)散模型(管道)根據(jù)提供的文本提示和其他參數(shù)生成圖像。


# Generate an image

result = pipe(

"A smiling cat holding a sign that says hello world",

negative_prompt="",

num_inference_steps=28,

guidance_scale=7.0,

)


讓我們分解一下每個(gè)元素:


  • result = pipe(...):此行調(diào)用 pipe 對(duì)象,該對(duì)象代表已加載的擴(kuò)散管道。它要求模型根據(jù)括號(hào)內(nèi)提供的參數(shù)生成圖像。

  • “一只貓舉著一塊寫著“你好世界”的牌子”:這個(gè)文本提示描述了所需的圖像。模型將使用此信息來(lái)指導(dǎo)圖像生成過(guò)程。

  • negative_prompt="":這是一個(gè)可選參數(shù),用于指定負(fù)面提示。負(fù)面提示允許您告訴模型您不希望在圖像中出現(xiàn)什么。在這里,我們使用一個(gè)空字符串,表示沒(méi)有特定的負(fù)面提示。

  • num_inference_steps=28:此參數(shù)控制圖像生成過(guò)程中使用的推理步驟數(shù)。每個(gè)步驟都會(huì)根據(jù)模型對(duì)提示的理解來(lái)細(xì)化圖像。值越高,圖像質(zhì)量就越高,但生成圖像的時(shí)間也越長(zhǎng)。

  • guide_scale=7.0:此參數(shù)控制文本提示對(duì)生成圖像的影響。較高的值會(huì)增加模型對(duì)提示的遵守程度,而較低的值則允許更多的創(chuàng)作自由。


執(zhí)行此代碼后,result 變量將包含有關(guān)生成的圖像的信息,包括實(shí)際圖像數(shù)據(jù)本身。接下來(lái),我們檢索生成的圖像并將其保存到特定位置。


# Get the generated image

image = result.images[0]

# Save the image

image_path = "generated_images/generated_image.png"

image.save(image_path)


具體如下:


1、檢索圖像:

result.images 0:如前所述,result 變量保存有關(guān)生成圖像的信息。在這里,我們?cè)L問(wèn) result 中的 images 屬性。此屬性可能包含生成的圖像列表(可能用于變體或多次生成運(yùn)行)。我們使用0來(lái)訪問(wèn)列表中的第一個(gè)圖像(假設(shè)只有一個(gè)生成的圖像)。


2、保存圖像

  • image_path = "generated_images/generated_image.png":此行定義圖像的保存路徑。它將圖像保存為文件名“generated_image.png”。

  • image.save(image_path):此行使用圖像對(duì)象的 save 方法(我們從 result.images 0中檢索到)。該方法將 image_path 作為參數(shù),指定保存圖像的目標(biāo)位置。


要運(yùn)行代碼,請(qǐng)使用 python3 命令。假設(shè)文件保存為 app.py,請(qǐng)使用以下命令。

python3 app.py


如果您第一次運(yùn)行代碼,它將從 Hugging Face 下載模型并生成圖像。



圖像將保存在您的 generated_images 文件夾中。要查看它,您只需使用安全復(fù)制 (SCP) 將圖像復(fù)制到本地計(jì)算機(jī)即可。為此,請(qǐng)導(dǎo)航到本地計(jì)算機(jī)上的命令行并運(yùn)行此命令。

scp root@external_ip:~/stable_diffusion/generated_images/generated_image.png the/destination/path



注意:將 External_IP 替換為虛擬機(jī)的實(shí)際 IP 地址。如果您已經(jīng)為虛擬機(jī)設(shè)置了命名主機(jī),就像我們一樣,你可以改用這個(gè)命令:

scp sdserver:~/stable_diffusion/generated_images/generated_image.png the/destination/path



圖像將被復(fù)制到您的計(jì)算機(jī)中。



當(dāng)在捷智算平臺(tái)上使用 A40 GPU 執(zhí)行穩(wěn)定擴(kuò)散任務(wù)時(shí),執(zhí)行速度與本地機(jī)器明顯不同。


import os

import torch

from diffusers import DiffusionPipeline

from huggingface_hub import HfFolder, login

from PIL import Image

import time # Import the time module


# Set your Hugging Face token

token = "your_hugging_face_model"

os.environ["HF_AUTH_TOKEN"] = token

HfFolder.save_token(token)


# Login with your token

login(token=token)


# Start time measurement

start_time = time.time()


# Load the model using DiffusionPipeline

pipe = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-3-medium-diffusers", torch_dtype=torch.float16)


pipe = pipe.to("cuda")


# Generate an image

result = pipe(

"A cat holding a sign that says hello world",

negative_prompt="",

num_inference_steps=28,

guidance_scale=7.0,

)


# Get the generated image

image = result.images[0]

# Save the image

image_path = "generated_images/generated_image.png"

image.save(image_path)


# End time measurement

end_time = time.time()


# Calculate and display execution time

execution_time = end_time - start_time


print(f"Script execution time: {execution_time:.2f} seconds")


下載模型后首次運(yùn)行時(shí)該腳本在 CUDO Compute 上的平均執(zhí)行時(shí)間約為 67 秒。





在后續(xù)運(yùn)行中,當(dāng)模型已緩存時(shí),執(zhí)行時(shí)間平均下降到 41 秒左右。在一臺(tái)臺(tái)式計(jì)算機(jī)上運(yùn)行相同的腳本可能需要數(shù)小時(shí)。


總結(jié)


在本指南中,您已成功學(xué)習(xí)了如何使用捷智算平臺(tái)上的 NVIDIA A40 GPU 和Stable Diffusion模型根據(jù)文本提示生成圖像。您已學(xué)習(xí)了如何:


  • 使用 GPU 在捷智算平臺(tái)上設(shè)置虛擬機(jī)。

  • 創(chuàng)建和管理 Python 虛擬環(huán)境以使您的項(xiàng)目保持井然有序。

  • 安裝使用 Stable Diffusion 所需的庫(kù)和工具。

  • 通過(guò) Hugging Face 進(jìn)行身份驗(yàn)證即可下載模型。

  • 編寫一個(gè) Python 腳本,根據(jù)文本提示生成圖像。

  • 將生成的圖像傳輸?shù)奖镜貦C(jī)器以供查看和共享。


您現(xiàn)在可以嘗試不同的提示和參數(shù),甚至可以在捷智算平臺(tái)的基礎(chǔ)設(shè)施上探索其他 AI 模型。無(wú)論您是藝術(shù)家、設(shè)計(jì)師還是 AI 愛(ài)好者,從文本生成圖像的能力都是一個(gè)強(qiáng)大的工具,可以增強(qiáng)您的工作流程并激發(fā)新的想法。

粵公網(wǎng)安備 44030502006483號(hào)、 粵ICP備15047669號(hào)
  • 捷易科技聯(lián)系人
  • 主站蜘蛛池模板: 极色品影院| 宅男午夜成年影视在线观看| 亚洲国产精品久久艾草纯爱| 吃奶呻吟打开双腿做受视频| 久久男人av资源网站无码| 五月天国产成人av免费观看| 欧洲无码八a片人妻少妇| 久久久日韩精品一区二区| 一区二区高清国产在线视频| 亚洲 中文 欧美 日韩 在线| 无遮无挡三级动态图| 欧美大屁股bbbbxxxx| 秋霞成人午夜鲁丝一区二区三区| 久久99久久99精品免观看| 精品国产99高清一区二区三区| 国产精品无码一区二区三区免费 | 午夜亚洲www湿好爽| 国精产品一品二品国精在线观看| 国产精成人品| 日韩精品亚洲色大成网站| 色一情一乱一乱一区99av白浆| 老鸭窝视频在线观看| 中文字幕无码专区一va亚洲v专区在线| 国产性猛交普通话对白| 久久97久久97精品免视看秋霞| 无码视频一区二区三区| 国产成人亚洲综合色婷婷| 亚洲色成人网站www永久下载| 欧美午夜精品一区二区三区电影 | 99国产精品久久久久久久成人 | 中文字幕第38页永| 久久青草精品欧美日韩精品| 天天躁日日躁很很很躁| 久久久久亚洲精品无码系列| 99这里只有精品66视频| 精品无码成人久久久久久| 国产av无码日韩av无码网站| 又粗又黑又大的吊av| 亚洲中字幕日产av片在线 | 啪啪无码人妻丰满熟妇| 99久久久无码国产精品性|