Gemma के ओपन मॉडल

यह लाइटवेट और बेहतरीन ओपन मॉडल है. इसे Gemini मॉडल में इस्तेमाल की गई रिसर्च और तकनीक का इस्तेमाल करके बनाया गया है

ज़िम्मेदार डिज़ाइन से जुड़े आइकॉन

ज़िम्मेदारी के साथ डिज़ाइन करना

सुरक्षा के बड़े उपायों को शामिल करके, ये मॉडल चुनिंदा डेटासेट और बेहतर ट्यूनिंग के ज़रिए, एआई (AI) के बेहतर और भरोसेमंद समाधान पाने में मदद करते हैं.

मेल न खाने वाली परफ़ॉर्मेंस का आइकॉन

साइज़ के हिसाब से परफ़ॉर्मेंस में अंतर

Gemma मॉडल, 2B, 7B, 9B, और 27B साइज़ में बेंचमार्क के बेहतर नतीजे देते हैं. साथ ही, कुछ बड़े ओपन मॉडल की परफ़ॉर्मेंस को भी पीछे छोड़ देते हैं.

फ़्रेमवर्क में बदलाव किया जा सकता है

फ़्रेमवर्क सुविधाजनक

Keras 3.0 के साथ, JAX, TensorFlow, और PyTorch के साथ आसानी से काम करने का आनंद लें. इससे आपको अपने टास्क के हिसाब से आसानी से फ़्रेमवर्क चुनने और उनमें बदलाव करने में मदद मिलेगी.

पेश है
Gemma 2

बेहतर परफ़ॉर्मेंस और बेहतरीन परफ़ॉर्मेंस के लिए फिर से डिज़ाइन किया गया Gemma 2, अलग-अलग हार्डवेयर पर तेज़ी से अनुमान लगाने के लिए ऑप्टिमाइज़ किया गया है.

5-shot

MMLU

एमएमएलयू बेंचमार्क एक ऐसा टेस्ट है जो प्री-ट्रेनिंग के दौरान, लार्ज लैंग्वेज मॉडल के ज़रिए हासिल किए गए ज्ञान और समस्या हल करने की क्षमता का आकलन करता है.

25-शॉट

एआरसी-सी

ARC-c मानदंड, ARC-e डेटासेट का ज़्यादा फ़ोकस किया गया सबसेट है. इसमें सिर्फ़ ऐसे सवाल शामिल हैं जिनका जवाब, सामान्य (रिट्रीवल-आधारित और शब्द के साथ-साथ होने की संभावना) एल्गोरिदम ने गलत तरीके से दिया है.

5-शॉट

GSM8K

GSM8K बेंचमार्क, भाषा मॉडल की उस क्षमता की जांच करता है जिससे वह स्कूल के लेवल के मैथ के सवालों को हल कर सकता है. इन सवालों को हल करने के लिए, अक्सर कई चरणों की ज़रूरत होती है.

3-5-शॉट

AGIEval

AGIEval बेंचमार्क, असल दुनिया की परीक्षाओं से मिले सवालों का इस्तेमाल करके, भाषा मॉडल की सामान्य बुद्धि का टेस्ट करता है. ये परीक्षाएं, इंसान की बौद्धिक क्षमताओं का आकलन करने के लिए डिज़ाइन की गई हैं.

3-शॉट, CoT

BBH

BBH (बिग-बेंच हार्ड) बेंचमार्क, उन कामों पर फ़ोकस करता है जिन्हें भाषा के मौजूदा मॉडल की क्षमताओं से बाहर माना जाता है. साथ ही, यह अलग-अलग रीज़निंग और समझ वाले डोमेन की सीमाओं की जांच करता है.

तीन शॉट, F1

नीचे झुक जाएं

DROP, पढ़ने की समझ का एक मानदंड है. इसमें पैराग्राफ़ के बारे में अलग-अलग तरीके से सोचने की ज़रूरत होती है.

5-shot

Winogrande

विनोग्रांडे बेंचमार्क, बाइनरी विकल्पों की मदद से मुश्किल भरे कामों को पूरा करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसके लिए सामान्य सामान्य सामान्य तर्क की ज़रूरत होती है.

10-शॉट

HellaSwag

HellaSwag बेंचमार्क, किसी कहानी के सबसे लॉजिकल आखिर को चुनकर, सामान्य समझ की रीज़निंग को समझने और लागू करने की भाषा मॉडल की क्षमता को चुनौती देता है.

4-शॉट

MATH

MATH, किसी भाषा मॉडल की गणित के जटिल सवालों को हल करने की क्षमता का आकलन करता है. इसके लिए, रीज़निंग, कई चरणों में समस्या हल करने, और गणित के कॉन्सेप्ट को समझने की ज़रूरत होती है.

0-शॉट

ARC-e

ARC-e बेंचमार्क, भाषा मॉडल की सवालों के जवाब देने की बेहतरीन क्षमताओं की जांच करता है. इसके लिए, यह विज्ञान से जुड़े कई विकल्प वाले सवालों का इस्तेमाल करता है. ये सवाल, स्कूल के ग्रेड लेवल के होते हैं.

0-शॉट

PIQA

PIQA बेंचमार्क, किसी भाषा मॉडल की इस क्षमता की जांच करता है कि वह रोज़मर्रा के कामों के बारे में पूछे गए सवालों के जवाब देकर, सामान्य ज्ञान को समझ और लागू कर सकता है या नहीं.

0-शॉट

SIQA

SIQA मानदंड, लोगों की कार्रवाइयों और उनके सामाजिक असर के बारे में सवाल पूछकर, यह आकलन करता है कि भाषा मॉडल, सामाजिक इंटरैक्शन और सामाजिक सामान्य ज्ञान को कितना समझता है.

0-शॉट

Boolq

BoolQ बेंचमार्क, भाषा के मॉडल की उस क्षमता की जांच करता है जिससे वह आम तौर पर पूछे जाने वाले 'हां/नहीं' सवालों के जवाब दे सकता है. साथ ही, यह मॉडल की उस क्षमता की भी जांच करता है जिससे वह असल ज़िंदगी में, सामान्य भाषा के अनुमान लगाने वाले टास्क को पूरा कर सकता है.

5-shot

TriviaQA

TriviaQA बेंचमार्क, सवाल-जवाब-सबूत के ट्रिपल की मदद से, पढ़कर समझने की क्षमता की जांच करता है.

5-shot

NQ

एनक्यू (नैचुरल सवाल) मानदंड की मदद से, विकिपीडिया के सभी लेखों में जवाब ढूंढने और समझने की भाषा मॉडल की क्षमता की जांच की जाती है. साथ ही, यह जांच की जाती है कि असल दुनिया में किस तरह के सवाल पूछे जाते हैं और इसका जवाब कैसे दिया जाता है.

pass@1

HumanEval

HumanEval बेंचमार्क, किसी भाषा मॉडल की कोड जनरेशन क्षमताओं की जांच करता है. इसके लिए, यह जांच की जाती है कि उसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट पास करते हैं या नहीं.

तीन शॉट

MBPP

MBPP बेंचमार्क, भाषा मॉडल की Python प्रोग्रामिंग की बुनियादी समस्याओं को हल करने की क्षमता की जांच करता है. यह प्रोग्रामिंग के बुनियादी सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर फ़ोकस करता है.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2.5 अरब

42.3

Gemma 2

2.6 अरब

51.3

Mistral

7 अरब

62.5

LLAMA 3

8B

66.6

Gemma 1

7B

64.4

Gemma 2

9B

71.3

Gemma 2

27B

75.2

Gemma 1

2.5 अरब

48.5

Gemma 2

2.6 अरब

55.4

Mistral

7B

60.5

LLAMA 3

8B

59.2

Gemma 1

7B

61.1

Gemma 2

9B

68.4

Gemma 2

27 अरब

71.4

Gemma 1

2.5 अरब

15.1

Gemma 2

2.6 अरब

23.9

Mistral

7B

39.6

LLAMA 3

8B

45.7

Gemma 1

7 अरब

51.8

Gemma 2

9B

68.6

Gemma 2

27B

74.0

Gemma 1

2.5 अरब

24.2

Gemma 2

2.6 अरब

30.6

Mistral

7B

44.0

LLAMA 3

8B

45.9

Gemma 1

7 अरब

44.9

Gemma 2

9B

52.8

Gemma 2

27B

55.1

Gemma 1

2.5 अरब

35.2

Gemma 2

2.6 अरब

41.9

Mistral

7B

56.0

लामा 3

8B

61.1

Gemma 1

7B

59.0

Gemma 2

9B

68.2

Gemma 2

27 अरब

74.9

Gemma 1

2.5 अरब

48.5

Gemma 2

2.6 अरब

52.0

Mistral

7B

63.8

LLAMA 3

8B

58.4

Gemma 1

7 अरब

56.3

Gemma 2

9B

69.4

Gemma 2

27B

74.2

Gemma 1

2.5 अरब

66.8

Gemma 2

2.6 अरब

70.9

Mistral

7B

78.5

लामा 3

8B

76.1

Gemma 1

7B

79.0

Gemma 2

9B

80.6

Gemma 2

27B

83.7

Gemma 1

2.5 अरब

71.7

Gemma 2

2.6 अरब

73.0

Mistral

7B

83.0

LLAMA 3

8B

82.0

Gemma 1

7B

82.3

Gemma 2

9B

81.9

Gemma 2

27B

86.4

Gemma 1

2.5 अरब

11.8

Gemma 2

2.6 अरब

15.0

Mistral

7B

12.7

Gemma 1

7B

24.3

Gemma 2

9B

36.6

Gemma 2

27B

42.3

Gemma 1

2.5 अरब

73.2

Gemma 2

2.6 अरब

80.1

Mistral

7B

80.5

Gemma 1

7B

81.5

Gemma 2

9 अरब

88.0

Gemma 2

27B

88.6

Gemma 1

2.5 अरब

77.3

Gemma 2

2.6 अरब

77.8

Mistral

7B

82.2

Gemma 1

7B

81.2

Gemma 2

9B

81.7

Gemma 2

27B

83.2

Gemma 1

2.5 अरब

49.7

Gemma 2

2.6 अरब

51.9

Mistral

7B

47.0

Gemma 1

7 अरब

51.8

Gemma 2

9B

53.4

Gemma 2

27 अरब

53.7

Gemma 1

2.5 अरब

69.4

Gemma 2

2.6 अरब

72.5

Mistral

7 अरब

83.2

Gemma 1

7 अरब

83.2

Gemma 2

9B

84.2

Gemma 2

27B

84.8

Gemma 1

2.5 अरब

53.2

Gemma 2

2.6 अरब

59.4

Mistral

7 अरब

62.5

Gemma 1

7B

63.4

Gemma 2

9B

76.6

Gemma 2

27B

83.7

Gemma 1

2.5 अरब

12.5

Gemma 2

2.6 अरब

16.7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9B

29.2

Gemma 2

27 अरब

34.5

Gemma 1

2.5 अरब

22.0

Gemma 2

2.6 अरब

17.7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9 अरब

40.2

Gemma 2

27 अरब

51.8

Gemma 1

2.5 अरब

29.2

Gemma 2

2.6 अरब

29.6

Mistral

7 अरब

40.2

Gemma 1

7B

44.4

Gemma 2

9B

52.4

Gemma 2

27B

62.6

*ये पहले से ट्रेन किए गए मॉडल के मानदंड हैं. दूसरे तरीकों के साथ परफ़ॉर्मेंस की जानकारी पाने के लिए तकनीकी रिपोर्ट देखें.

Gemma मॉडल फ़ैमिली

नई रिलीज़

Gemma 2

Gemma 2 में तीन नए, बेहतर, और असरदार मॉडल उपलब्ध हैं. ये मॉडल 2, 9, और 27 अरब पैरामीटर साइज़ में उपलब्ध हैं. इन सभी मॉडल में, सुरक्षा से जुड़ी बेहतर सुविधाएं पहले से मौजूद हैं.

नई रिलीज़

DataGemma

DataGemma, ऐसे पहले ओपन मॉडल हैं जिन्हें एलएलएम को Google के Data Commons से इकट्ठा किए गए ज़्यादा से ज़्यादा रीयल-वर्ल्ड डेटा से कनेक्ट करने के लिए डिज़ाइन किया गया है.

Gemma 1

जेमा मॉडल, लाइटवेट, टेक्स्ट-टू-टेक्स्ट, और सिर्फ़ डिकोडर वाले लार्ज लैंग्वेज मॉडल हैं. इन्हें टेक्स्ट, कोड, और गणित के कॉन्टेंट के बड़े डेटासेट की मदद से, नैचुरल लैंग्वेज प्रोसेसिंग से जुड़े कई कामों के लिए ट्रेनिंग दी गई है.

RecurrentGemma

RecurrentGemma एक तकनीकी रूप से अलग मॉडल है, जो मेमोरी क्षमता को बेहतर बनाने के लिए बार-बार होने वाले न्यूरल नेटवर्क और लोकल अटेंशन का इस्तेमाल करता है.

PaliGemma

PaliGemma, PaLI-3 से प्रेरित एक ओपन विज़न-लैंग्वेज मॉडल है. इसमें SigLIP और Gemma का फ़ायदा लिया गया है. इसे विज़न-लैंग्वेज से जुड़े कई तरह के टास्क के लिए ट्रांसफ़र करने के मकसद से, एक बेहतर मॉडल के तौर पर डिज़ाइन किया गया है.

CodeGemma

CodeGemma, पहले से ट्रेन किए गए हमारे मूल Gemma मॉडल के फ़ाउंडेशन का इस्तेमाल करके, आपके कंप्यूटर के साइज़ के हिसाब से कोड पूरा करने और जनरेट करने की बेहतर सुविधाएं उपलब्ध कराता है.

डेवलपर के लिए आसानी से सिखाने वाली गाइड

पार्टनर के लिए आसानी से सीखें गाइड

Gemma Cookbook

PaliGemma की मदद से इमेज के कैप्शन बनाने, CodeGemma की मदद से कोड जनरेट करने, और बेहतर बनाए गए Gemma मॉडल की मदद से चैटबॉट बनाने जैसे कामों के लिए, Gemma की क्षमता और अलग-अलग कामों में इस्तेमाल करने के उदाहरणों का कलेक्शन एक्सप्लोर करें.

ज़िम्मेदारी के साथ एआई का डेवलपमेंट

डिज़ाइन के हिसाब से ज़िम्मेदारी

सावधानी से चुने गए डेटा पर पहले से ट्रेन किया गया है और सुरक्षा के लिए ट्यून किया गया है. इससे, Gemma मॉडल के आधार पर सुरक्षित और ज़िम्मेदार एआई डेवलप करने में मदद मिलती है.

बेहतर और पारदर्शी तरीके से आकलन करना

हर इस्तेमाल के उदाहरण के लिए ज़िम्मेदार तरीके अपनाने के लिए, मॉडल की सीमाओं को ज़ाहिर करने के लिए, पूरी तरह से आकलन किया जाता है और पारदर्शी रिपोर्टिंग की जाती है.

ज़िम्मेदारी के साथ डेवलपमेंट को बढ़ावा देना

ज़िम्मेदारी के साथ जनरेटिव एआई का इस्तेमाल करने के लिए टूलकिट, डेवलपर को ज़िम्मेदारी के साथ एआई का इस्तेमाल करने के सबसे सही तरीकों को डिज़ाइन और लागू करने में मदद करता है.

Google Cloud का आइकॉन

Google Cloud के लिए ऑप्टिमाइज़ किया गया

Google Cloud पर Gemini मॉडल की मदद से, Vertex AI के पूरी तरह से मैनेज किए जाने वाले टूल या GKE के खुद मैनेज किए जाने वाले विकल्प का इस्तेमाल करके, मॉडल को अपनी ज़रूरतों के हिसाब से ज़्यादा बेहतर बनाया जा सकता है. साथ ही, इसे एआई के लिए ऑप्टिमाइज़ किए गए, सुविधाजनक, और किफ़ायती इन्फ़्रास्ट्रक्चर पर डिप्लॉय किया जा सकता है.

Google Cloud क्रेडिट की मदद से अकादमिक रिसर्च को बेहतर बनाना

हाल ही में, Academic Research Program के लिए आवेदन करने की समयसीमा खत्म हो गई है. इस प्रोग्राम में, Gemma मॉडल का इस्तेमाल करके वैज्ञानिक खोज को आगे बढ़ाने वाले रिसर्चर को Google Cloud क्रेडिट दिए जाते हैं. हमें इस पहल से होने वाली नई खोजों को देखने में दिलचस्पी है.

Google Cloud की मदद से अपनी रिसर्च को बेहतर बनाने के लिए, आने वाले समय में मिलने वाले अवसरों के लिए हमारे साथ बने रहें.

कम्यूनिटी से जुड़ें

मशीन लर्निंग मॉडल की कम्यूनिटी के अन्य लोगों से जुड़ें, उनके बारे में जानें, और अपनी जानकारी शेयर करें.