نماذج Gemma المفتوحة

مجموعة من أحدث النماذج المتطوّرة والخفيفة المتاحة للجميع، والتي تم إنشاؤها بناءً على الأبحاث والتكنولوجيا نفسها المستخدَمة في إنشاء نماذج Gemini

رمز "التصميم المسؤول"

مسؤولية التصميم

ومن خلال دمج إجراءات السلامة الشاملة، تساعد هذه النماذج في ضمان توفير حلول مسؤولة وموثوقة مستندة إلى الذكاء الاصطناعي من خلال مجموعات بيانات منسَّقة وضبط صارم.

رمز الأداء غير المسبوق

أداء لا مثيل له في الحجم

تحقّق نماذج Gemma نتائج قياس أداء استثنائية بأحجام 2B و7B و9B و27B، كما أنّها تتفوق في أدائها على بعض النماذج المفتوحة الأكبر حجمًا.

مرونة في إطار العمل

إطار عمل مرن

باستخدام Keras 3.0، يمكنك الاستفادة من التوافق السلس مع JAX وTensorFlow وPyTorch، ما يتيح لك اختيار أُطر العمل وتبديلها بسهولة استنادًا إلى مهمتك.

نعرّفك على
Gemma 2

تمّت إعادة تصميم Gemma 2 لتحقيق أداء استثنائي وكفاءة لا مثيل لها، وهي محسّنة لإجراء عمليات استنتاج سريعة جدًا على الأجهزة المتنوعة.

5 لقطات

MMLU

مقياس MMLU هو اختبار يقيس مدى اتساع المعرفة وقدرة حلّ المشاكل التي اكتسبتها النماذج اللغوية الكبيرة أثناء التدريب المُسبَق.

25 لقطة

ARC-C

معيار ARC-c هو مجموعة فرعية أكثر تركيزًا من مجموعة بيانات ARC-e، ولا يحتوي إلا على الأسئلة التي تمت الإجابة عنها بشكل غير صحيح من خلال الخوارزميات الشائعة (قاعدة استرجاعية وظهور الكلمات).

5 لقطات

GSM8K

يختبر مقياس GSM8K أداء نموذج اللغة في حلّ المسائل الحسابية على مستوى الصفوف المدرسية التي تتطلّب غالبًا خطوات متعددة من الاستدلال.

3-5-shot

AGIEval

يختبر مقياس AGIEval الذكاء العام لنموذج لغوي باستخدام أسئلة مستمدة من اختبارات حقيقية مصمّمة لتقييم القدرات الفكرية للبشر.

3-shot، CoT

BBH

يركز مقياس BBH (BIG-Bench Hard) على المهام التي يُعتقد أنّها تتجاوز قدرات النماذج اللغوية الحالية، ما يُظهر حدودها في نطاقات مختلفة من الاستدلال والفهم.

لقطة بثلاثة صور، F1

الانبطاح

اختبار DROP هو مقياس لفهم القراءة يتطلّب التفكير الدقيق في الفقرات.

5 لقطات

Winogrande

يختبر مقياس Winogrande أداء نموذج اللغة في حلّ مهام ملء الفراغات الغامضة باستخدام خيارات ثنائية، ما يتطلّب استخدام المنطق العام الشائع.

10 لقطات

HellaSwag

يشكّل مقياس HellaSwag تحدّيًا لقدرة نموذج اللغة على فهم المنطق العام وتطبيقه من خلال اختيار النهاية الأكثر منطقية للقصة.

لقطة من 4 صور

MATH

يُقيّم MATH قدرة نموذج لغوي على حلّ المسائل الكلامية الرياضية المعقّدة التي تتطلّب التفكير المنطقي وحلّ المشاكل المتعدّدة الخطوات وفهم المفاهيم الرياضية.

طلب بلا مثال

ARC-e

يختبر مقياس ARC-e الأداء المتقدّم لنموذج لغوي في الإجابة عن الأسئلة من خلال أسئلة علمية حقيقية متعددة الخيارات على مستوى المدرسة الابتدائية.

طلب بلا مثال

PIQA

يختبر معيار PIQA قدرة النموذج اللغوي على فهم وتطبيق المنطق السليم من خلال الإجابة عن أسئلة حول التفاعلات الجسدية اليومية.

طلب بلا مثال

SIQA

يقيّم مقياس أداء SIQA مدى فهم النموذج اللغوي للتفاعلات الاجتماعية والحس السليم الاجتماعي من خلال طرح أسئلة حول تصرفات الأشخاص وآثارها الاجتماعية.

طلب بلا مثال

Boolq

يختبر مقياس BoolQ أداء نموذج اللغة في الإجابة عن أسئلة نعم/لا بشكل طبيعي، ما يُظهر قدرة النماذج على تنفيذ مهام الاستنتاج في اللغة الطبيعية في الحياة الواقعية.

5 لقطات

TriviaQA

يختبر مقياس TriviaQA الأداء في مهارات فهم القراءة باستخدام ثلاثيات السؤال والإجابة والدليل.

5 لقطات

NQ

يختبر مقياس قياس الأداء (NQ) قدرة النموذج اللغوي على إيجاد الإجابات وفهمها في مقالات ويكيبيديا كاملة، من خلال محاكاة سيناريوهات الإجابة عن الأسئلة الواقعية.

pass@1

HumanEval

يختبر معيار HumanEval قدرات إنشاء الرموز البرمجية في نموذج لغوي من خلال تقييم ما إذا كانت حلوله تجتاز اختبارات الوحدة الوظيفية لمشكلات البرمجة.

3 لقطات

MBPP

يختبر مقياس MBPP قدرة نموذج اللغة على حلّ المشاكل الأساسية في برمجة بايثون، مع التركيز على مفاهيم البرمجة الأساسية واستخدام المكتبة العادية.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2.5 مليار

42.3

Gemma 2

2.6 مليار

51.3

Mistral

‫7 مليار

62.5

اللاما 3

8B

66.6

Gemma 1

‫7 مليار

64.4

Gemma 2

‫9 مليار

71.3

Gemma 2

27 مليار

75.2

Gemma 1

2.5 مليار

48.5

Gemma 2

2.6 مليار

55.4

Mistral

‫7 مليار

60.5

LLAMA 3

8 مليار

59.2

Gemma 1

‫7 مليار

61.1

Gemma 2

‫9B

68.4

Gemma 2

‫27 مليار

71.4

Gemma 1

2.5 مليار

15.1

Gemma 2

2.6 مليار

23.9

Mistral

‫7 مليار

39.6

LLAMA 3

8B

45.7

Gemma 1

‫7 مليار

51.8

Gemma 2

‫9 مليار

68.6

Gemma 2

27 مليار

74.0

Gemma 1

2.5 مليار

24.2

Gemma 2

2.6 مليار

30.6

Mistral

7 مليار

44.0

LLAMA 3

8B

45.9

Gemma 1

‫7 مليار

44.9

Gemma 2

‫9B

52.8

Gemma 2

27 مليار

55.1

Gemma 1

2.5 مليار

35.2

Gemma 2

2.6 مليار

41.9

Mistral

‫7 مليار

56.0

LLAMA 3

8B

61.1

Gemma 1

‫7 مليار

59.0

Gemma 2

‫9 مليار

68.2

Gemma 2

27 مليار

74.9

Gemma 1

2.5 مليار

48.5

Gemma 2

2.6 مليار

52.0

Mistral

‫7 مليار

63.8

LLAMA 3

8B

58.4

Gemma 1

‫7 مليار

56.3

Gemma 2

‫9B

69.4

Gemma 2

27 مليار

74.2

Gemma 1

2.5 مليار

66.8

Gemma 2

2.6 مليار

70.9

Mistral

‫7 مليار

78.5

LLAMA 3

8B

76.1

Gemma 1

‫7 مليار

79.0

Gemma 2

‫9B

80.6

Gemma 2

27 مليار

83.7

Gemma 1

2.5 مليار

71.7

Gemma 2

2.6 مليار

73.0

Mistral

‫7 مليار

83

اللاما 3

8B

82.0

Gemma 1

‫7 مليار

82.3

Gemma 2

9 مليار

81.9

Gemma 2

27 مليار

86.4

Gemma 1

2.5 مليار

11.8

Gemma 2

2.6 مليار

15

Mistral

‫7 مليار

12.7

Gemma 1

7 مليار

24.3

Gemma 2

‫9B

36.6

Gemma 2

27 مليار

42.3

Gemma 1

2.5 مليار

73.2

Gemma 2

2.6 مليار

80.1

Mistral

7 مليار

80.5

Gemma 1

‫7 مليار

81.5

Gemma 2

‫9B

88.0

Gemma 2

27 مليار

88.6

Gemma 1

2.5 مليار

77.3

Gemma 2

2.6 مليار

77.8

Mistral

‫7 مليار

82.2

Gemma 1

7 مليار

81.2

Gemma 2

‫9 مليار

81.7

Gemma 2

‫27 مليار

83.2

Gemma 1

2.5 مليار

49.7

Gemma 2

2.6 مليار

51.9

Mistral

7 مليار

47.0

Gemma 1

‫7 مليار

51.8

Gemma 2

9 مليار

53.4

Gemma 2

27 مليار

53.7

Gemma 1

2.5 مليار

69.4

Gemma 2

2.6 مليار

72.5

Mistral

‫7 مليار

83.2

Gemma 1

‫7 مليار

83.2

Gemma 2

9 مليار

84.2

Gemma 2

27 مليار

84.8

Gemma 1

2.5 مليار

53.2

Gemma 2

2.6 مليار

59.4

Mistral

‫7 مليار

62.5

Gemma 1

‫7 مليار

63.4

Gemma 2

‫9 مليار

76.6

Gemma 2

27 مليار

83.7

Gemma 1

2.5 مليار

12.5

Gemma 2

2.6 مليار

16.7

Mistral

‫7 مليار

23.2

Gemma 1

‫7 مليار

23.0

Gemma 2

‫9B

29.2

Gemma 2

‫27 مليار

34.5

Gemma 1

2.5 مليار

22.0

Gemma 2

2.6 مليار

17.7

Mistral

7 مليار

26.2

Gemma 1

‫7 مليار

32.3

Gemma 2

‫9B

40.2

Gemma 2

27 مليار

51.8

Gemma 1

2.5 مليار

29.2

Gemma 2

2.6 مليار

29.6

Mistral

‫7 مليار

40.2

Gemma 1

7 مليار

44.4

Gemma 2

‫9B

52.4

Gemma 2

27 مليار

62.6

*في ما يلي مقاييس الأداء للنماذج المدرَّبة مسبقًا. يُرجى الاطّلاع على التقرير الفني للحصول على تفاصيل عن الأداء باستخدام أساليب أخرى.

مجموعة نماذج Gemma

إصدار جديد

Gemma 2

توفّر Gemma 2 ثلاثة نماذج جديدة وفعّالة وفعّالة بثلاثة أحجام للمَعلمات، وهي 2 و9 و27 مليار مَعلمة، وجميعها تتضمّن تحسينات أمان مدمجة.

إصدار جديد

DataGemma

DataGemma هي أول نماذج مفتوحة مصمّمة لربط النماذج اللغوية الكبيرة (LLM) ببيانات واسعة من العالم الواقعي يتم استخراجها من Data Commons من Google.

Gemma 1

نماذج Gemma هي نماذج لغوية كبيرة وخفيفة الوزن وتعمل على تحويل النصوص إلى نصوص، وهي نماذج لفك الترميز فقط، وتم تدريبها على مجموعة بيانات ضخمة من النصوص والرموز والمحتوى الرياضي لتنفيذ مجموعة متنوعة من مهام معالجة اللغة الطبيعية.

RecurrentGemma

RecurrentGemma هو نموذج متميز من الناحية التقنية يستفيد من الشبكات العصبية المتكررة والتركيز المحلي لتحسين كفاءة الذاكرة.

PaliGemma

‫PaliGemma هو نموذج مفتوح للغة المرئية مستوحى من PaLI-3، ويستفيد من SigLIP وGemma، وهو مصمّم كنموذج متعدد الاستخدامات يمكن نقله إلى مجموعة كبيرة من مهام اللغة المرئية.

CodeGemma

من خلال الاستفادة من الأساس الذي تستند إليه نماذج Gemma الأصلية المدربة مسبقًا، يوفّر CodeGemma إمكانات قوية لإكمال الرموز البرمجية وإنشائها بحجم مناسب للكمبيوتر المحلي.

أدلة البدء السريع للمطوّرين

Gemma Cookbook

استكشِف مجموعة من الوصفات والأمثلة العملية التي تعرض فعالية Gemma وتنوعها في مهام مثل إضافة ترجمة وشرح للصور باستخدام PaliGemma، وإنشاء الرموز البرمجية باستخدام CodeGemma، وإنشاء محادثات آلية باستخدام نماذج Gemma المحسَّنة.

تطوير الذكاء الاصطناعي بشكل مسؤول

المسؤولية من خلال التصميم

تم تدريبها مسبقًا على بيانات منسَّقة بعناية وتم ضبطها لضمان الأمان، ما يساعد في تعزيز تطوير الذكاء الاصطناعي الآمن والمسؤول استنادًا إلى نماذج Gemma.

تقييم فعّال وشفاف

تكشف التقييمات الشاملة وإعداد التقارير الشفافة عن قيود النموذج لاعتماد نهج مسؤول لكل حالة استخدام.

تعزيز التطوير المسؤول

تساعد "مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول" المطوّرين في تصميم أفضل ممارسات الذكاء الاصطناعي المسؤول وتنفيذها.

رمز Google Cloud

محسَّنة لخدمات Google Cloud

باستخدام نماذج Gemma على Google Cloud، يمكنك تخصيص النموذج بشكلٍ معمّق لتلبية احتياجاتك المحدّدة باستخدام أدوات Vertex AI المُدارة بالكامل أو خيار الإدارة الذاتية في GKE، ونشره على بنية أساسية مرنة وفعّالة من حيث التكلفة ومحسّنة بالاستناد إلى الذكاء الاصطناعي.

تسريع الأبحاث الأكاديمية باستخدام أرصدة Google Cloud

أنهى برنامج الأبحاث الأكاديمية مؤخرًا فترة تقديم الطلبات، ومنح أرصدة Google Cloud لدعم الباحثين في توسيع حدود الاكتشاف العلمي باستخدام نماذج Gemma. نحن متحمّسون للاطّلاع على الأبحاث الرائدة التي ستنتج عن هذه المبادرة.

ننصحك بمتابعتنا للحصول على فرص مستقبلية لتحسين أبحاثك باستخدام Google Cloud.

انضم إلى المنتدى

يمكنك التواصل مع الآخرين في مجتمع نماذج تعلُّم الآلة وتصفّحها ومشاركتها.