一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型庫(kù)

谷歌開(kāi)發(fā)者 ? 來(lái)源:谷歌開(kāi)發(fā)者 ? 2024-12-20 10:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類(lèi)型的任務(wù)中,預(yù)訓(xùn)練模型變得越來(lái)越重要。Keras 以其用戶友好型 API 和對(duì)易用性的重視而聞名,始終處于這一動(dòng)向的前沿。Keras 擁有專(zhuān)用的內(nèi)容庫(kù),如用于文本模型的 KerasNLP 和用于計(jì)算機(jī)視覺(jué)模型的 KerasCV。

然而,隨著模型使各模態(tài)之間的界限越來(lái)越模糊(想象一下強(qiáng)大的聊天 LLM 具有圖像輸入功能或是在視覺(jué)任務(wù)中利用文本編碼器),維持這些獨(dú)立的領(lǐng)域變得不那么實(shí)際。NLP 和 CV 之間的區(qū)別可能會(huì)阻礙真正多模態(tài)模型的發(fā)展和部署,從而導(dǎo)致冗余的工作和碎片化的用戶體驗(yàn)。

為了解決這個(gè)問(wèn)題,我們很高興地宣布 Keras 生態(tài)系統(tǒng)迎來(lái)重大變革:隆重推出 KerasHub,一個(gè)統(tǒng)一、全面的預(yù)訓(xùn)練模型庫(kù),簡(jiǎn)化了對(duì)前沿 NLP 和 CV 架構(gòu)的訪問(wèn)。KerasHub 是一個(gè)中央存儲(chǔ)庫(kù),您可以在穩(wěn)定且熟悉的 Keras 框架內(nèi)無(wú)縫探索和使用最先進(jìn)的模型,例如用于文本分析的 BERT 以及用于圖像分類(lèi)的 EfficientNet。

KerasHub https://keras.io/keras_hub/

統(tǒng)一的開(kāi)發(fā)者體驗(yàn)

這種統(tǒng)一不僅簡(jiǎn)化了對(duì)模型的探索和使用,還有助于打造更具凝聚力的生態(tài)系統(tǒng)。通過(guò) KerasHub,您可以利用高級(jí)功能,例如輕松的發(fā)布和共享模型、用于優(yōu)化資源效率的 LoRA 微調(diào)、用于優(yōu)化性能的量化,以及用于處理大規(guī)模數(shù)據(jù)集的強(qiáng)大多主機(jī)訓(xùn)練,所有這些功能都適用于各種模態(tài)。這標(biāo)志著在普及強(qiáng)大的 AI 工具以及加速開(kāi)發(fā)創(chuàng)新型多模態(tài)應(yīng)用方面邁出了重要一步。

KerasHub 入門(mén)步驟

首先在您的系統(tǒng)上安裝 KerasHub,您可以在其中探索大量現(xiàn)成的模型和主流架構(gòu)的不同實(shí)現(xiàn)方式。然后,您就可以輕松地將這些預(yù)訓(xùn)練的模型加載并整合到自己的項(xiàng)目中,并根據(jù)您的具體需求對(duì)其進(jìn)行微調(diào),以獲得最佳性能。

現(xiàn)成的模型 https://keras.io/api/keras_hub/models/

安裝 KerasHub

要安裝帶有 Keras 3 的 KerasHub 最新版本,只需運(yùn)行以下代碼:

$ pip install --upgrade keras-hub
現(xiàn)在,您可以開(kāi)始探索可用的模型。使用 Keras 3 開(kāi)始工作的標(biāo)準(zhǔn)環(huán)境設(shè)置在開(kāi)始使用 KerasHub 時(shí)并不需要任何改變:
import os


# Define the Keras 3 backend you want to use - "jax", "tensorflow" or "torch"
os.environ["KERAS_BACKEND"] = "jax"


# Import Keras 3 and KerasHub modules
import keras
import keras_hub

通過(guò) KerasHub 使用

計(jì)算機(jī)視覺(jué)和自然語(yǔ)言模型

現(xiàn)在,您可以通過(guò) KerasHub 訪問(wèn)和使用 Keras 3 生態(tài)系統(tǒng)中的模型。以下是一些示例:

Gemma

Gemma 是由 Google 開(kāi)發(fā)的一系列前沿且易于使用的開(kāi)放模型。依托于與 Gemini 模型相同的研究和技術(shù),Gemma 的基礎(chǔ)模型在各種文本生成任務(wù)中表現(xiàn)出色,包括回答問(wèn)題、總結(jié)信息以及進(jìn)行邏輯推理。此外,您還可以針對(duì)特定需求自定義模型。

Gemma https://ai.google.dev/gemma/docs/base

在此示例中,您可以使用 Keras 和 KerasHub 加載并開(kāi)始使用 Gemma 2 2B 參數(shù)生成內(nèi)容。有關(guān) Gemma 變體的更多詳細(xì)信息,請(qǐng)查看 Kaggle 上的 Gemma 模型卡。

# Load Gemma 2 2B preset from Kaggle models 
gemma_lm = keras_hub.models.GemmaCausalLM.from_preset("gemma_2b_en")


# Start generating contents with Gemma 2 2B
gemma_lm.generate("Keras is a", max_length=32)

Gemma 模型卡 https://www.kaggle.com/models/google/gemma/

PaliGemma

PaliGemma 是一款緊湊型的開(kāi)放模型,可以理解圖像和文本。PaliGemma 從 PaLI-3 中汲取靈感,以 SigLIP 視覺(jué)模型和 Gemma 語(yǔ)言模型等開(kāi)源組件為基礎(chǔ),可以針對(duì)有關(guān)圖像的問(wèn)題提供詳細(xì)且富有洞察力的答案。因此,該模型可以更深入地了解視覺(jué)內(nèi)容,從而實(shí)現(xiàn)諸多功能,例如為圖像和短視頻生成描述、識(shí)別對(duì)象甚至理解圖像中的文本。

import os


# Define the Keras 3 backend you want to use - "jax", "tensorflow" or "torch"
os.environ["KERAS_BACKEND"] = "jax"


# Import Keras 3 and KerasHub modules
import keras
import keras_hub
from keras.utils import get_file, load_img, img_to_array




# Import PaliGemma 3B fine tuned with 224x224 images
pali_gemma_lm = keras_hub.models.PaliGemmaCausalLM.from_preset(
    "pali_gemma_3b_mix_224"
)


# Download a test image and prepare it for usage with KerasHub
url = 'https://storage.googleapis.com/keras-cv/models/paligemma/cow_beach_1.png'
img_path = get_file(origin=url)
img = img_to_array(load_img(image_path))


# Create the prompt with the question about the image
prompt = 'answer where is the cow standing?'


# Generate the contents with PaliGemma
output = pali_gemma_lm.generate(
    inputs={
        "images": img,
        "prompts": prompt,
    }
)

PaliGemma https://ai.google.dev/gemma/docs/paligemma

PaLI-3 https://arxiv.org/abs/2310.09199

SigLIP 視覺(jué)模型 https://arxiv.org/abs/2303.15343

Gemma 語(yǔ)言模型 https://arxiv.org/abs/2403.08295

有關(guān) Keras 3 上可用的預(yù)訓(xùn)練模型的更多詳細(xì)信息,請(qǐng)?jiān)?Kaggle 上查看 Keras 中的模型列表。

Kaggle 上查看 Keras 中的模型列表 https://www.kaggle.com/organizations/keras/models

Stability.ai Stable Diffusion 3

您也可以使用計(jì)算機(jī)視覺(jué)模型。例如,您可以通過(guò) KerasHub 使用 stability.ai Stable Diffusion 3:

from PIL import Image
from keras.utils import array_to_img
from keras_hub.models import StableDiffusion3TextToImage


text_to_image = StableDiffusion3TextToImage.from_preset(
    "stable_diffusion_3_medium",
    height=1024,
    width=1024,
    dtype="float16",
)


# Generate images with SD3
image = text_to_image.generate(
    "photograph of an astronaut riding a horse, detailed, 8k",
)


# Display the generated image
img = array_to_img(image)
img

Stable Diffusion 3 https://stability.ai/news/stable-diffusion-3

有關(guān) Keras 3 上可用的預(yù)訓(xùn)練計(jì)算機(jī)視覺(jué)模型的更多詳細(xì)信息,請(qǐng)查看 Keras 中的模型列表。

Keras 中的模型列表 https://keras.io/api/keras_hub/models/

對(duì)于 KerasNLP 開(kāi)發(fā)者而言,

有哪些變化?

從 KerasNLP 到 KerasHub 的過(guò)渡是一個(gè)簡(jiǎn)單的過(guò)程。只需要將 import 語(yǔ)句從 keras_nlp 更新為 keras_hub。

示例: 以前,您可能需要導(dǎo)入 keras_nlp 才能使用 BERT 模型,如下所示

import keras_nlp


# Load a BERT model 
classifier = keras_nlp.models.BertClassifier.from_preset(
    "bert_base_en_uncased", 
    num_classes=2,
)
現(xiàn)在,您只需調(diào)整 import,即可使用 KerasHub:
import keras_hub


# Load a BERT model 
classifier = keras_hub.models.BertClassifier.from_preset(
    "bert_base_en_uncased", 
    num_classes=2,
)

對(duì)于 KerasCV 開(kāi)發(fā)者而言,

有哪些變化?

如果您當(dāng)前是 KerasCV 用戶,更新到 KerasHub 能夠?yàn)槟鷰?lái)以下好處:

簡(jiǎn)化模型加載:KerasHub 為加載模型提供了統(tǒng)一的 API,如果您同時(shí)使用 KerasCV 和 KerasNLP,這可以簡(jiǎn)化您的代碼。

框架靈活性:如果您有興趣探索 JAX 或 PyTorch 等不同框架,KerasHub 可以讓您更輕松地將這些框架與 KerasCV 和 KerasNLP 模型結(jié)合起來(lái)使用。

集中式存儲(chǔ)庫(kù):借助 KerasHub 的統(tǒng)一模型存儲(chǔ)庫(kù),您可以更輕松地查找和訪問(wèn)模型,未來(lái)還可以在其中添加新架構(gòu)。

如何使我的代碼適配 KerasHub?

模型

目前,我們正在將 KerasCV 模型遷移到 KerasHub。雖然大多數(shù)模型已經(jīng)可用,但有些仍在遷移中。請(qǐng)注意,Centerpillar 模型不會(huì)被遷移。您應(yīng)該能夠在 KerasHub 使用任何視覺(jué)模型,方法如下:

import keras_hub


# Load a model using preset
Model = keras_hub.models..from_preset('preset_name`)


# or load a custom model by specifying the backbone and preprocessor
Model=keras_hub.models.(backbone=backbone,preprocessor=preprocessor)

Centerpillar https://www.kaggle.com/models/keras/centerpillar

KerasHub 為 KerasCV 開(kāi)發(fā)者帶來(lái)了激動(dòng)人心的新功能,提供了更高的靈活性和擴(kuò)展能力。其中包括:

內(nèi)置預(yù)處理

每個(gè)模型都配備了一個(gè)定制的預(yù)處理器,用于處理包括調(diào)整大小、重新縮放等常規(guī)任務(wù),從而簡(jiǎn)化您的工作流程。 在此之前,預(yù)處理輸入是在向模型提供輸入之前手動(dòng)執(zhí)行的。

# Preprocess inputs for example
def preprocess_inputs(image, label):
    # Resize rescale or do more preprocessing on inputs
    return preprocessed_inputs
backbone = keras_cv.models.ResNet50V2Backbone.from_preset(
    "resnet50_v2_imagenet",
)
model = keras_cv.models.ImageClassifier(
    backbone=backbone,
    num_classes=4,
)
output = model(preprocessed_input)
目前,任務(wù)模型的預(yù)處理已集成到現(xiàn)成的預(yù)設(shè)中。預(yù)處理器會(huì)對(duì)輸入進(jìn)行預(yù)處理,對(duì)樣本圖像進(jìn)行大小調(diào)整和重新縮放。預(yù)處理器是任務(wù)模型的內(nèi)在組件。盡管如此,開(kāi)發(fā)者還是可以選擇使用個(gè)性化的預(yù)處理器。
classifier = keras_hub.models.ImageClassifier.from_preset('resnet_18_imagenet')
classifier.predict(inputs)

損失函數(shù)

與增強(qiáng)層類(lèi)似,以前 KerasCV 中的損失函數(shù)現(xiàn)在可在 Keras 中通過(guò) keras.losses. 使用。例如,如果您當(dāng)前正在使用 FocalLoss 函數(shù):

import keras
import keras_cv


keras_cv.losses.FocalLoss(
    alpha=0.25, gamma=2, from_logits=False, label_smoothing=0, **kwargs
)

FocalLoss 函數(shù) https://keras.io/api/keras_cv/losses/focal_loss/

您只需調(diào)整損失函數(shù)定義代碼,使用 keras.losses 而不是 keras_cv.losses:

import keras


keras.losses.FocalLoss(
    alpha=0.25, gamma=2, from_logits=False, label_smoothing=0, **kwargs
)

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50445
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122811
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22629

原文標(biāo)題:Keras Hub,您的一站式預(yù)訓(xùn)練模型庫(kù)

文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ABAQUS內(nèi)置了豐富的材料模型庫(kù)

    在現(xiàn)代工程設(shè)計(jì)與分析中,材料模型的準(zhǔn)確選擇與應(yīng)用是決定仿真結(jié)果可靠性的關(guān)鍵因素之。ABAQUS作為有限元分析(FEA)領(lǐng)域的旗艦軟件,憑借其內(nèi)置的豐富材料模型庫(kù),為工程師們提供了仿真分析靈活性
    的頭像 發(fā)表于 05-14 10:34 ?237次閱讀
    ABAQUS內(nèi)置了豐富的材料<b class='flag-5'>模型庫(kù)</b>

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)步講解更多的技術(shù)細(xì)節(jié)。本文主要針對(duì)大語(yǔ)言
    的頭像 發(fā)表于 03-21 18:24 ?1694次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    從Open Model Zoo下載的FastSeg大型公共預(yù)訓(xùn)練模型,無(wú)法導(dǎo)入名稱(chēng)是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共預(yù)訓(xùn)練模型。 運(yùn)行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    AI開(kāi)源模型庫(kù)有什么用

    AI開(kāi)源模型庫(kù)作為推動(dòng)AI技術(shù)發(fā)展的重要力量,正深刻改變著我們的生產(chǎn)生活方式。接下來(lái),AI部落小編帶您了解AI開(kāi)源模型庫(kù)有什么用。
    的頭像 發(fā)表于 02-24 11:50 ?439次閱讀

    用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開(kāi)始訓(xùn)練個(gè)大語(yǔ)言模型需要投資多少錢(qián)》,其中高昂的預(yù)訓(xùn)練費(fèi)用讓許多對(duì)大
    的頭像 發(fā)表于 02-19 16:10 ?1006次閱讀
    用PaddleNLP在4060單卡上實(shí)踐大<b class='flag-5'>模型</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>技術(shù)

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化>這本書(shū)。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)
    發(fā)表于 01-14 16:51

    模型訓(xùn)練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是個(gè)用于簡(jiǎn)化和加速深度學(xué)習(xí)模型訓(xùn)練庫(kù),它支持在多種硬件配置上進(jìn)行分布式訓(xùn)練,包括 C
    的頭像 發(fā)表于 01-14 14:24 ?719次閱讀

    開(kāi)源AI模型庫(kù)是干嘛的

    開(kāi)源AI模型庫(kù)是指那些公開(kāi)源代碼、允許自由訪問(wèn)和使用的AI模型集合。這些模型通常經(jīng)過(guò)訓(xùn)練,能夠執(zhí)行特定的任務(wù)。以下,是對(duì)開(kāi)源AI模型庫(kù)的詳細(xì)
    的頭像 發(fā)表于 12-14 10:33 ?794次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來(lái)的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型個(gè)簡(jiǎn)稱(chēng),完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來(lái)的及大<b class='flag-5'>模型</b>作用

    從零開(kāi)始訓(xùn)練個(gè)大語(yǔ)言模型需要投資多少錢(qián)?

    關(guān)于訓(xùn)練技巧和模型評(píng)估的文章,但很少有直接告訴你如何估算訓(xùn)練時(shí)間和成本的。前面分享了些關(guān)于大模型/本地知識(shí)
    的頭像 發(fā)表于 11-08 14:15 ?795次閱讀
    從零開(kāi)始<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>一</b>個(gè)大語(yǔ)言<b class='flag-5'>模型</b>需要投資多少錢(qián)?

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語(yǔ)言模型(LLM)是個(gè)復(fù)雜且資源密集的過(guò)程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專(zhuān)業(yè)知識(shí)。以下是訓(xùn)練LLM模型
    的頭像 發(fā)表于 11-08 09:30 ?1530次閱讀

    如何訓(xùn)練自己的AI大模型

    訓(xùn)練自己的AI大模型個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟。以下是個(gè)詳細(xì)的訓(xùn)練流程: 、明
    的頭像 發(fā)表于 10-23 15:07 ?5005次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開(kāi)播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?601次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    如何訓(xùn)練ai大模型

    訓(xùn)練AI大模型個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟和細(xì)致的考量。 、數(shù)據(jù)準(zhǔn)備 1. 數(shù)據(jù)收集 確定數(shù)據(jù)類(lèi)型 :根據(jù)模型的應(yīng)用場(chǎng)景,確定
    的頭像 發(fā)表于 10-17 18:17 ?2648次閱讀

    蘋(píng)果揭示AI新動(dòng)向:Apple Intelligence模型在谷歌云端芯片上預(yù)訓(xùn)練

    蘋(píng)果公司在最新的技術(shù)論文中披露了項(xiàng)重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴(lài)的模型并非傳統(tǒng)上大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設(shè)計(jì)的云端芯片上進(jìn)行預(yù)
    的頭像 發(fā)表于 07-30 15:00 ?852次閱讀