Gemini 2.5 Pro مدل هوش مصنوعی پیشرفته گوگل است که برای استدلال پیشرفته, کدنویسی, ریاضیات و وظایف علمی طراحی شده است. این مدل از قابلیتهای «تفکر» استفاده میکند و آن را قادر میسازد تا با دقت بیشتر و مدیریت ظریفتر متن, از طریق پاسخها استدلال کند. Gemini 2.5 Pro به عملکرد برتر در چندین معیار دست مییابد, از جمله کسب رتبه اول در تابلوی امتیازات LMArena, که نشاندهنده همسویی برتر با ترجیحات انسانی و تواناییهای پیچیده حل مسئله است.
"Gemini 2.5 Flash مدل کارآمد و پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل شامل قابلیتهای ""تفکر"" داخلی است که آن را قادر میسازد تا پاسخهایی با دقت بیشتر و مدیریت زمینه دقیقتر ارائه دهد. توجه: این مدل در دو نوع موجود است: تفکر و غیر تفکر. قیمتگذاری خروجی بسته به اینکه قابلیت تفکر فعال باشد یا خیر، به طور قابل توجهی متفاوت است. اگر نوع استاندارد (بدون پسوند "":thinking"") را انتخاب کنید، مدل به صراحت از تولید توکنهای تفکر اجتناب میکند. برای استفاده از قابلیت تفکر و دریافت توکنهای تفکر، باید نوع "":thinking"" را انتخاب کنید که در این صورت هزینه خروجی تفکر بالاتری را متحمل خواهید شد. علاوه بر این، Gemini 2.5 Flash از طریق پارامتر ""max tokens for reasoning"" قابل تنظیم است، همانطور که در مستندات توضیح داده شده است."
این مدل توسط گوگل به نفع (مدل پیش نمایش پولی) [google/gemini-2.5-pro-preview] منسوخ شده است. Gemini 2.5 Pro مدل هوش مصنوعی پیشرفته گوگل است که برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. از قابلیت های "تفکر" استفاده می کند و آن را قادر می سازد تا از طریق پاسخ ها با دقت بیشتر و رسیدگی به زمینه های ظریف استدلال کند. Gemini 2.5 Pro به عملکرد برتر در چندین معیار دست می یابد، از جمله قرار گرفتن در رتبه اول در تابلوی امتیازات LMArena، که نشان دهنده تراز برتر ترجیحات انسانی و توانایی های حل مسئله پیچیده است.
Gemma 3 چندوجهی بودن را معرفی میکند و از ورودی دیداری-زبانی و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای متنی تا 128 هزار توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای ریاضی، استدلال و گفتگو بهبود یافتهای از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد. Gemma 3 12B دومین مدل بزرگ در خانواده مدلهای Gemma 3 پس از [Gemma 3 27B](google/gemma-3-27b-it) است.
Gemini Flash 2.0 زمان رسیدن به اولین توکن (TTFT) بسیار سریعتری را در مقایسه با [Gemini Flash 1.5](/google/gemini-flash-1.5) ارائه میدهد، در حالی که کیفیت را در حد مدلهای بزرگتری مانند [Gemini Pro 1.5](/google/gemini-pro-1.5) حفظ میکند. این مدل پیشرفتهای قابل توجهی در درک چندوجهی، قابلیتهای کدنویسی، پیروی از دستورالعملهای پیچیده و فراخوانی تابع ارائه میدهد. این پیشرفتها در کنار هم تجربههای عاملمحور یکپارچهتر و قویتری را ارائه میدهند.
Gemma 2 9B توسط Google یک مدل زبانی پیشرفته و متنباز است که استاندارد جدیدی را برای کارایی و عملکرد در کلاس اندازه خود تعیین میکند. این مدل که برای طیف گستردهای از وظایف طراحی شده است، توسعهدهندگان و محققان را قادر میسازد تا برنامههای نوآورانه بسازند، در حالی که دسترسی، ایمنی و مقرون به صرفه بودن را حفظ میکند. برای جزئیات بیشتر، [اعلامیه راهاندازی](https://blog.google/technology/developers/google-gemma-2/) را ببینید. استفاده از Gemma مشمول [شرایط استفاده Gemma](https://ai.google.dev/gemma/terms) گوگل است.
مدل Gemini 2.5 Flash با ایستگاه زمانی ۲۰ مه، مدل پیشرفته گوگل برای وظایف استدلالی، کدنویسی، ریاضی و علمی است. این مدل دارای قابلیتهای تعبیهشده «تفکر» است که به آن اجازه میدهد پاسخهایی با دقت بیشتر و مدیریت زمینه پیچیده ارائه دهد. توجه: این مدل در دو نسخه «با تفکر» و «بدون تفکر» ارائه میشود. قیمتگذاری خروجی بهطور قابل توجهی بسته به فعال بودن قابلیت تفکر متفاوت است. اگر نسخه استاندارد (بدون پسوند ":thinking") را انتخاب کنید، مدل بهطور صریح از تولید توکنهای تفکری اجتناب میکند. برای استفاده از قابلیت تفکر و دریافت توکنهای تفکری، باید نسخه با پسوند ":thinking" را انتخاب کنید، که در این صورت قیمتگذاری خروجی تفکری بالاتری خواهد داشت. علاوه بر این، Gemini 2.5 Flash از طریق پارامتر "حداکثر توکن برای استدلال" قابل پیکربندی است، که در مستندات شرح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).
Gemma 3 multimodality را معرفی می کند، از ورودی vision-language و خروجی های متنی پشتیبانی می کند. context window ها را تا 128k توکن مدیریت می کند، بیش از 140 زبان را درک می کند و قابلیت های ریاضی، استدلال و گفتگو بهبود یافته، از جمله خروجی های ساختاریافته و function calling را ارائه می دهد. Gemma 3 12B دومین مدل بزرگ در خانواده مدل های Gemma 3 پس از است
Gemini Flash 1.5 8B برای سرعت و کارایی بهینه شده است و عملکرد بهتری را در وظایف prompt کوچک مانند گفتگو، رونویسی و ترجمه ارائه میدهد. با کاهش تأخیر، برای عملیاتهای بلادرنگ و در مقیاس بزرگ بسیار مؤثر است. این مدل بر راهحلهای مقرونبهصرفه در عین حفظ نتایج با کیفیت بالا تمرکز دارد. . استفاده از Gemini مشروط به گوگل است.
Gemma 2 9B توسط Google یک مدل زبانی پیشرفته و منبع باز است که استاندارد جدیدی را برای کارایی و عملکرد در کلاس اندازه خود تعیین میکند. این مدل که برای طیف گستردهای از وظایف طراحی شده است، توسعهدهندگان و محققان را قادر میسازد تا برنامههای کاربردی نوآورانه بسازند، در حالی که دسترسی، ایمنی و مقرون به صرفه بودن را حفظ میکند. برای جزئیات بیشتر را ببینید. استفاده از Gemma مشمول Google است.
Gemini 1.5 Flash Experimental یک نسخه آزمایشی از مدل است. استفاده از Gemini مشمول Google است. #multimodal توجه: این مدل آزمایشی است و برای موارد استفاده در تولید مناسب نیست. ممکن است در آینده حذف شود یا به مدل دیگری هدایت شود.
PaLM 2 برای مکالمات گفتگو بات که به سوالات مربوط به کد کمک می کند، fine-tune شده است.
Gemini 2.5 Flash-Lite is a lightweight reasoning model in the Gemini 2.5 family, optimized for ultra-low latency and cost efficiency. It offers improved throughput, faster token generation, and better performance across common benchmarks compared to earlier Flash models. By default, "thinking" (i.e. multi-pass reasoning) is disabled to prioritize speed, but developers can enable it via the [Reasoning API parameter](https://openrouter.ai/docs/use-cases/reasoning-tokens) to selectively trade off cost for intelligence.
Gemma 3n E2B IT is a multimodal, instruction-tuned model developed by Google DeepMind, designed to operate efficiently at an effective parameter size of 2B while leveraging a 6B architecture. Based on the MatFormer architecture, it supports nested submodels and modular composition via the Mix-and-Match framework. Gemma 3n models are optimized for low-resource deployment, offering 32K context length and strong multilingual and reasoning performance across common benchmarks. This variant is trained on a diverse corpus including code, math, web, and multimodal data.
Gemini 2.5 Flash-Lite is a lightweight reasoning model in the Gemini 2.5 family, optimized for ultra-low latency and cost efficiency. It offers improved throughput, faster token generation, and better performance across common benchmarks compared to earlier Flash models. By default, "thinking" (i.e. multi-pass reasoning) is disabled to prioritize speed, but developers can enable it via the [Reasoning API parameter](https://openrouter.ai/docs/use-cases/reasoning-tokens) to selectively trade off cost for intelligence.
Gemini 2.5 Flash is Google's state-of-the-art workhorse model, specifically designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in "thinking" capabilities, enabling it to provide responses with greater accuracy and nuanced context handling. Additionally, Gemini 2.5 Flash is configurable through the "max tokens for reasoning" parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).
Gemini 2.5 Pro is Google’s state-of-the-art AI model designed for advanced reasoning, coding, mathematics, and scientific tasks. It employs “thinking” capabilities, enabling it to reason through responses with enhanced accuracy and nuanced context handling. Gemini 2.5 Pro achieves top-tier performance on multiple benchmarks, including first-place positioning on the LMArena leaderboard, reflecting superior human-preference alignment and complex problem-solving abilities.
Gemma 3n E4B-it is optimized for efficient execution on mobile and low-resource devices, such as phones, laptops, and tablets. It supports multimodal inputs—including text, visual data, and audio—enabling diverse tasks such as text generation, speech recognition, translation, and image analysis. Leveraging innovations like Per-Layer Embedding (PLE) caching and the MatFormer architecture, Gemma 3n dynamically manages memory usage and computational load by selectively activating model parameters, significantly reducing runtime resource requirements. This model supports a wide linguistic range (trained in over 140 languages) and features a flexible 32K token context window. Gemma 3n can selectively load parameters, optimizing memory and computational efficiency based on the task or device capabilities, making it well-suited for privacy-focused, offline-capable applications and on-device AI solutions. [Read more in the blog post](https://developers.googleblog.com/en/introducing-gemma-3n/)
"Gemini 2.5 Flash مدل کارآمد و پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل شامل قابلیتهای ""تفکر"" داخلی است که آن را قادر میسازد تا پاسخهایی با دقت بیشتر و مدیریت زمینه دقیقتر ارائه دهد. توجه: این مدل در دو نوع موجود است: تفکر و غیر تفکر. قیمتگذاری خروجی بسته به اینکه قابلیت تفکر فعال باشد یا خیر، به طور قابل توجهی متفاوت است. اگر نوع استاندارد (بدون پسوند "":thinking"") را انتخاب کنید، مدل به صراحت از تولید توکنهای تفکر اجتناب میکند. برای استفاده از قابلیت تفکر و دریافت توکنهای تفکر، باید نوع "":thinking"" را انتخاب کنید که در این صورت هزینه خروجی تفکر بالاتری را متحمل خواهید شد. علاوه بر این، Gemini 2.5 Flash از طریق پارامتر ""max tokens for reasoning"" قابل تنظیم است، همانطور که در مستندات توضیح داده شده است."
Gemma 3 چندوجهی بودن را معرفی میکند و از ورودی زبان-بینایی و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای متنی تا 128k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای ریاضی، استدلال و گفتگو بهبود یافتهای از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد.
Gemma 3 چندوجهی بودن را معرفی میکند و از ورودی زبان-بینایی و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای متنی تا 128k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای ریاضی، استدلال و گفتگو بهبود یافتهای از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد.
Gemma 3 1B کوچکترین عضو خانواده جدید Gemma 3 است. این مدل پنجرههای متنی تا 32k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای ریاضی، استدلال و گفتگو بهبود یافتهای از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد. توجه: Gemma 3 1B چندوجهی نیست. برای کوچکترین مدل چندوجهی Gemma 3، لطفاً به [Gemma 3 4B](google/gemma-3-4b-it) مراجعه کنید.
Gemma 3 چندوجهی بودن را معرفی می کند و از ورودی زبان دیداری و خروجی های متنی پشتیبانی می کند. پنجره های زمینه را تا 128 هزار توکن مدیریت می کند، بیش از 140 زبان را درک می کند و قابلیت های ریاضی، استدلال و گفتگو بهبود یافته ای از جمله خروجی های ساختاریافته و فراخوانی تابع ارائه می دهد. Gemma 3 12B دومین مدل بزرگ در خانواده مدل های Gemma 3 پس از [Gemma 3 27B](google/gemma-3-27b-it) است.
Gemma 3 چندوجهی بودن را معرفی می کند و از ورودی زبان دیداری و خروجی های متنی پشتیبانی می کند. پنجره های زمینه را تا 128 هزار توکن مدیریت می کند، بیش از 140 زبان را درک می کند و قابلیت های ریاضی، استدلال و گفتگو بهبود یافته ای از جمله خروجی های ساختاریافته و فراخوانی تابع ارائه می دهد. Gemma 3 27B آخرین مدل منبع باز گوگل است، جانشین [Gemma 2](google/gemma-2-27b-it)
Gemma 3 چندوجهی بودن را معرفی میکند و از ورودی دیداری-زبانی و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای متنی تا 128 هزار توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای ریاضی، استدلال و گفتگو بهبود یافتهای از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد. Gemma 3 27B جدیدترین مدل متن باز گوگل و جانشین [Gemma 2](google/gemma-2-27b-it) است.
Gemini 2.0 Flash Lite زمان تا اولین توکن (TTFT) به طور قابل توجهی سریعتری را در مقایسه با [Gemini Flash 1.5](/google/gemini-flash-1.5) ارائه میدهد، در حالی که کیفیت را در حد مدلهای بزرگتری مانند [Gemini Pro 1.5](/google/gemini-pro-1.5) حفظ میکند، همه اینها با قیمتهای بسیار اقتصادی توکن.
Gemini Flash 2.0 زمان رسیدن به اولین توکن (TTFT) بسیار سریعتری را در مقایسه با [Gemini Flash 1.5](/google/gemini-flash-1.5) ارائه میدهد، در حالی که کیفیت را در حد مدلهای بزرگتر مانند [Gemini Pro 1.5](/google/gemini-pro-1.5) حفظ میکند. این مدل پیشرفتهای قابل توجهی در درک چندوجهی، قابلیتهای کدنویسی، پیروی از دستورالعملهای پیچیده و فراخوانی تابع ارائه میدهد. این پیشرفتها با هم ترکیب میشوند تا تجربههای agentic یکپارچهتر و قویتری را ارائه دهند.
Gemini Flash 1.5 8B برای سرعت و کارایی بهینه شده است و عملکردی بهبود یافته در وظایف پرامپت کوچک مانند گفتگو، رونویسی و ترجمه ارائه می دهد. با کاهش تأخیر، برای عملیات های بلادرنگ و در مقیاس بزرگ بسیار موثر است. این مدل بر راه حل های مقرون به صرفه و در عین حال حفظ نتایج با کیفیت بالا تمرکز دارد. [برای کسب اطلاعات بیشتر در مورد این مدل اینجا کلیک کنید](https://developers.googleblog.com/en/gemini-15-flash-8b-is-now-generally-available-for-use/). استفاده از Gemini مشمول [شرایط استفاده از Gemini](https://ai.google.dev/terms) گوگل است.
Gemma 2 27B توسط Google یک مدل باز است که از همان تحقیق و فناوری مورد استفاده برای ایجاد [مدلهای Gemini](/models?q=gemini) ساخته شده است. مدلهای Gemma برای انواع وظایف تولید متن، از جمله پاسخ به سوالات، خلاصهسازی و استدلال مناسب هستند. برای جزئیات بیشتر، [اعلامیه راهاندازی](https://blog.google/technology/developers/google-gemma-2/) را ببینید. استفاده از Gemma مشمول [شرایط استفاده Gemma](https://ai.google.dev/gemma/terms) گوگل است.
Gemma 2 9B توسط Google یک مدل زبانی پیشرفته و متنباز است که استاندارد جدیدی را برای کارایی و عملکرد در کلاس اندازه خود تعیین میکند. این مدل که برای طیف گستردهای از وظایف طراحی شده است، توسعهدهندگان و محققان را قادر میسازد تا برنامههای نوآورانه بسازند، در حالی که دسترسی، ایمنی و مقرون به صرفه بودن را حفظ میکند. برای جزئیات بیشتر، [اعلامیه راهاندازی](https://blog.google/technology/developers/google-gemma-2/) را ببینید. استفاده از Gemma مشمول [شرایط استفاده Gemma](https://ai.google.dev/gemma/terms) گوگل است.
Gemini 1.5 Flash یک مدل پایه است که در انواع وظایف چندوجهی مانند درک بصری، طبقهبندی، خلاصهسازی و ایجاد محتوا از تصویر، صدا و ویدیو عملکرد خوبی دارد. این مدل در پردازش ورودیهای بصری و متنی مانند عکسها، اسناد، اینفوگرافیکها و اسکرینشاتها ماهر است. Gemini 1.5 Flash برای وظایف با حجم بالا و فرکانس بالا که هزینه و تأخیر مهم هستند، طراحی شده است. در بیشتر وظایف رایج، Flash به کیفیتی قابل مقایسه با سایر مدلهای Gemini Pro با هزینه بسیار کمتری دست مییابد. Flash برای برنامههایی مانند دستیارهای گفتگو و تولید محتوای درخواستی که سرعت و مقیاس مهم هستند، مناسب است. استفاده از Gemini مشمول [شرایط استفاده Gemini](https://ai.google.dev/terms) گوگل است. #multimodal
جدیدترین مدل چندوجهی گوگل، از تصویر و ویدیو[0] در پرامپتهای متنی یا گفتگو پشتیبانی میکند. بهینهسازی شده برای وظایف زبانی از جمله: - تولید کد - تولید متن - ویرایش متن - حل مسئله - توصیهها - استخراج اطلاعات - استخراج یا تولید داده - عوامل هوش مصنوعی استفاده از Gemini مشمول [شرایط استفاده Gemini](https://ai.google.dev/terms) گوگل است. * [0]: ورودی ویدیو در حال حاضر از طریق OpenRouter در دسترس نیست.
Gemma 3n E4B-it برای اجرای کارآمد در دستگاههای همراه و کممنبع مانند گوشیها، لپتاپها و تبلتها بهینه شده است. این مدل از ورودیهای چندحالته شامل متن، دادههای تصویری و صوتی پشتیبانی میکند و وظایف متنوعی مانند تولید متن، تشخیص گفتار، ترجمه و تحلیل تصویر را انجام میدهد. با بهرهگیری از نوآوریهایی مانند کشکردن تعبیهسازی در هر لایه (PLE) و معماری MatFormer، Gemma 3n بهصورت پویا مصرف حافظه و بار محاسباتی را با فعالسازی انتخابی پارامترهای مدل مدیریت میکند و نیاز منابع در زمان اجرا را بهطور قابل توجهی کاهش میدهد. این مدل از طیف گستردهای از زبانها (آموزشدیده در بیش از ۱۴۰ زبان) پشتیبانی میکند و پنجره متنی انعطافپذیر ۳۲هزار توکن دارد. Gemma 3n میتواند پارامترها را بهصورت انتخابی بارگذاری کند، که بهرهوری حافظه و محاسبات را بر اساس وظیفه یا قابلیتهای دستگاه بهینه میکند و آن را برای برنامههای متمرکز بر حفظ حریم خصوصی، دارای قابلیت اجرای آفلاین و هوش مصنوعی روی دستگاه بسیار مناسب میسازد. [در این پست وبلاگ بیشتر بخوانید](https://developers.googleblog.com/en/introducing-gemma-3n/)
جیمینی ۲.۵ پرو، پیشرفتهترین مدل هوش مصنوعی گوگل است که برای استدلال پیشرفته، برنامهنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل از قابلیتهای «تفکر» برخوردار است که به آن اجازه میدهد تا با دقت و درکِ دقیقتر زمینههای مختلف در پاسخها استدلال کند. جیمینی ۲.۵ پرو، عملکردی بسیار بالا در آزمونهای مختلف داشته و در صدر جدول امتیازات لِما آرنا قرار گرفته است که نشاندهنده تطابق عالی با ترجیحات انسانی و توانایی حل مسائل پیچیده است.
مدل Gemini 2.5 Flash با ایستگاه زمانی ۲۰ مه، مدل پیشرفته گوگل برای وظایف استدلالی، کدنویسی، ریاضی و علمی است. این مدل دارای قابلیتهای تعبیهشده «تفکر» است که به آن اجازه میدهد پاسخهایی با دقت بیشتر و مدیریت زمینه پیچیده ارائه دهد. توجه: این مدل در دو نسخه «با تفکر» و «بدون تفکر» ارائه میشود. قیمتگذاری خروجی بهطور قابل توجهی بسته به فعال بودن قابلیت تفکر متفاوت است. اگر نسخه استاندارد (بدون پسوند ":thinking") را انتخاب کنید، مدل بهطور صریح از تولید توکنهای تفکری اجتناب میکند. برای استفاده از قابلیت تفکر و دریافت توکنهای تفکری، باید نسخه با پسوند ":thinking" را انتخاب کنید، که در این صورت قیمتگذاری خروجی تفکری بالاتری خواهد داشت. علاوه بر این، Gemini 2.5 Flash از طریق پارامتر "حداکثر توکن برای استدلال" قابل پیکربندی است، که در مستندات شرح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).
Gemini 2.5 Pro مدل هوش مصنوعی state-of-the-art گوگل است که برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل از قابلیتهای "تفکر" استفاده میکند و آن را قادر میسازد تا از طریق پاسخها با دقت بیشتر و مدیریت ظریفتر context استدلال کند. Gemini 2.5 Pro به عملکرد درجه یک در چندین بنچمارک دست مییابد، از جمله قرارگیری در رتبه اول در تابلوی امتیازات LMArena، که نشاندهنده همسویی برتر با ترجیحات انسانی و تواناییهای پیچیده حل مسئله است.
Gemma 3 1B کوچکترین عضو خانواده جدید Gemma 3 است. این مدل پنجرههای زمینه تا 32k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای بهبود یافته ریاضی، استدلال و گفتگو، از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد. توجه: Gemma 3 1B چندوجهی نیست. برای کوچکترین مدل چندوجهی Gemma 3، لطفاً به [لینک] مراجعه کنید.
Gemma 3 چندوجهی بودن را معرفی میکند و از ورودی دیداری-زبانی و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای زمینه تا 128k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای بهبود یافته ریاضی، استدلال و گفتگو، از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد.
Gemma 3 قابلیت چندوجهی را معرفی میکند و از ورودی vision-language و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای متنی تا 128k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای بهبودیافته در ریاضیات، استدلال و گفتگو، از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد.
Gemma 3 قابلیت چندوجهی را معرفی میکند و از ورودی vision-language و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای متنی تا 128k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای بهبودیافته در ریاضیات، استدلال و گفتگو، از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد. Gemma 3 12B دومین مدل بزرگ در خانواده مدلهای Gemma 3 پس از
Gemma 3 multimodality را معرفی می کند، از ورودی vision-language و خروجی های متنی پشتیبانی می کند. context window ها را تا 128k توکن مدیریت می کند، بیش از 140 زبان را درک می کند و قابلیت های ریاضی، استدلال و گفتگو بهبود یافته، از جمله خروجی های ساختاریافته و function calling را ارائه می دهد. Gemma 3 27B جدیدترین مدل متن باز گوگل است، جانشین
Gemma 3 قابلیت چندوجهی را معرفی میکند و از ورودی vision-language و خروجیهای متنی پشتیبانی میکند. این مدل پنجرههای متنی تا 128k توکن را مدیریت میکند، بیش از 140 زبان را درک میکند و قابلیتهای بهبودیافته در ریاضیات، استدلال و گفتگو، از جمله خروجیهای ساختاریافته و فراخوانی تابع را ارائه میدهد. Gemma 3 27B جدیدترین مدل متنباز گوگل و جانشین مدلهای قبلی است.
Gemini 2.0 Flash Lite زمان رسیدن به اولین توکن (TTFT) به طور قابل توجهی سریعتری را در مقایسه با ارائه میدهد، در حالی که کیفیت را در حد مدلهای بزرگتری مانند حفظ میکند، همه اینها با قیمتهای بسیار اقتصادی توکن.
Gemini Flash 2.0 در مقایسه با زمان بسیار سریعتری برای اولین توکن (TTFT) ارائه میدهد، در حالی که کیفیت را در حد مدلهای بزرگتر مانند حفظ میکند. این مدل پیشرفتهای قابل توجهی در درک چندوجهی، قابلیتهای کدنویسی، دنبال کردن دستورالعملهای پیچیده و function calling ارائه میدهد. این پیشرفتها با هم ترکیب میشوند تا تجربههای agentic یکپارچهتر و قویتری ارائه دهند.
Gemini Flash 2.0 زمان رسیدن به اولین توکن (TTFT) بسیار سریعتری را در مقایسه با ارائه میدهد، در حالی که کیفیت را در حد مدلهای بزرگتری مانند حفظ میکند. این مدل بهبودهای قابل توجهی در درک چندوجهی، قابلیتهای کدنویسی، پیروی از دستورالعملهای پیچیده و فراخوانی تابع ارائه میدهد. این پیشرفتها با هم تجربههای عاملمحور یکپارچهتر و قویتری را ارائه میدهند.
یک نسخه آزمایشی از از Google.
Gemma 2 27B توسط Google یک مدل باز است که از همان تحقیق و فناوری مورد استفاده برای ایجاد ساخته شده است. مدلهای Gemma برای انواع وظایف تولید متن، از جمله پاسخگویی به سوالات، خلاصهسازی و استدلال مناسب هستند. برای جزئیات بیشتر را ببینید. استفاده از Gemma مشمول Google است.
Gemma 2 9B توسط Google یک مدل زبانی پیشرفته و متنباز است که استاندارد جدیدی را برای کارایی و عملکرد در کلاس اندازه خود تعیین میکند. این مدل برای طیف گستردهای از وظایف طراحی شده است و توسعهدهندگان و محققان را قادر میسازد تا برنامههای نوآورانه بسازند، در حالی که دسترسی، ایمنی و مقرونبهصرفه بودن را حفظ میکند. برای جزئیات بیشتر به مراجعه کنید. استفاده از Gemma مشمول Google است.
Gemini 1.5 Flash یک مدل پایه است که در انواع وظایف چندوجهی مانند درک بصری، طبقه بندی، خلاصه سازی و ایجاد محتوا از تصویر، صدا و ویدئو به خوبی عمل می کند. این مدل در پردازش ورودی های بصری و متنی مانند عکس ها، اسناد، اینفوگرافیک ها و اسکرین شات ها مهارت دارد. Gemini 1.5 Flash برای وظایف با حجم بالا و فرکانس بالا که هزینه و تأخیر مهم هستند، طراحی شده است. در بیشتر وظایف رایج، Flash به کیفیتی قابل مقایسه با سایر مدل های Gemini Pro با هزینه ای به طور قابل توجهی کمتر دست می یابد. Flash برای برنامه هایی مانند دستیارهای گفتگو و تولید محتوای درخواستی که سرعت و مقیاس مهم هستند، مناسب است. استفاده از Gemini مشروط به Google است. #multimodal
آخرین مدل چندوجهی گوگل، از تصویر و ویدیو[0] در promptهای متنی یا گفتگو پشتیبانی میکند. بهینه شده برای وظایف زبانی از جمله: - تولید کد - تولید متن - ویرایش متن - حل مسئله - توصیهها - استخراج اطلاعات - استخراج یا تولید داده - عاملهای هوش مصنوعی. استفاده از Gemini مشروط به گوگل است. * [0]: ورودی ویدیو در حال حاضر از طریق OpenRouter در دسترس نیست.
نسخه آزمایشی (21 نوامبر 2024) از Gemini.
مدل آزمایشی Gemini 11-14 (2024) دارای بهبودهای "کیفی" است.
Gemini 1.5 Pro Experimental یک نسخه پیشرفته از مدل است. از آنجایی که در حال حاضر آزمایشی است، توسط Google پشتیبانی خواهد شد. استفاده از Gemini مشمول شرایط Google است. #multimodal
Gemma توسط Google یک خانواده مدل زبانی پیشرفته و متنباز است که از آخرین فناوری decoder-only، text-to-text بهره میبرد. این مدل قابلیتهای زبان انگلیسی را در سراسر وظایف تولید متن مانند پاسخ به سوالات، خلاصهسازی و استدلال ارائه میدهد. نوع Gemma 7B از نظر عملکرد با مدلهای متنباز پیشرو قابل مقایسه است. استفاده از Gemma مشمول Google است.
PaLM 2 یک مدل زبانی توسط گوگل است که قابلیت های چند زبانه، استدلال و کدنویسی بهبود یافته است.
PaLM 2 یک مدل زبانی از گوگل است که قابلیتهای چند زبانه، استدلال و کدنویسی بهبود یافتهای دارد.
PaLM 2 که برای مکالمات گفتگوبات به منظور کمک به سوالات مرتبط با کد، fine-tune شده است.
مدل جيما ۱ ۲بي گوگل، يك مدل باز است كه از همان تحقيقات و فناوري مورد استفاده در ايجاد مدلهاي [جيني](/models?q=gemini) ساخته شده است. مدلهاي جيما براي انواع مختلف وظايف توليد متن، از جمله پاسخگويي به سوالات، خلاصه سازي و استدلال، مناسب هستند. استفاده از جيما تابع قوانين [شرايط استفاده از جيما](https://ai.google.dev/gemma/terms) گوگل است.