درک کد مقیاس: چگونه هوش مصنوعی Jolt از API Gemini استفاده می کند
یو اسپکتور
مدیر عامل
ویشال دارمادیکاری
مهندس راه حل های محصول
توسعهدهندگانی که با پایگاههای کد گسترده و در مقیاس تولید کار میکنند، درد را میدانند. درک زمینه، یافتن فایلهای مرتبط، و ایجاد تغییرات میتواند مانند پیمایش در یک هزارتو باشد. Jolt AI با یک کدژن و ابزار چت که به طور خاص برای پایگاههای کد خطی 100K+ در دنیای واقعی طراحی شده است، با این مشکل مقابله میکند. سلاح مخفی آنها برای ارائه سرعت و دقت؟ Gemini API، به ویژه Gemini 2.0 Flash.
ماموریت Jolt AI این است که توسعه دهندگان را قادر می سازد تا فوراً هر پایگاه کد را درک کنند و در آن مشارکت کنند. بسیاری از ابزارهای امروزی با پایگاههای کد بزرگ و موجود دست و پنجه نرم میکنند و کاربران را ملزم به انتخاب دستی فایلهای زمینه میکنند. خسته کننده و غیر عملی است. Jolt AI از یک جستجوی معنایی جدید استفاده می کند که به طور دقیق و خودکار فایل های زمینه مربوطه را شناسایی می کند. این یک تغییر دهنده بازی برای توسعه ویژگی، رفع اشکال، نصب و راه اندازی و غیره است.
چالش Jolt AI یافتن مدلی بود که بتواند خط لوله جستجوی آنها را با ترکیب مناسبی از سرعت، ثبات و درک کد نیرو دهد. Yev Spektor، مدیر عامل Jolt AI توضیح می دهد: "ما به دنبال سرعت بخشیدن به 3 مرحله مبتنی بر هوش مصنوعی در خط لوله جستجوی کد خود بودیم." "هر مرحله نیاز به درک زبان های برنامه نویسی مختلف، چارچوب ها، کد کاربر و هدف کاربر دارد."
فلش Gemini 2.0: ارائه سرعت و درک کد پیشرفته
فلش Gemini 2.0 را وارد کنید. برای Jolt AI، این مدل جهش عملکردی را که به دنبال آن بودند ارائه کرد. اسپکتور خاطرنشان میکند: «پس از تنظیم سریع، ما توانستیم با Gemini 2.0 Flash خروجی سازگارتر و باکیفیتتری نسبت به مدلهای کندتر و بزرگتر ارائهدهنده دیگر دریافت کنیم.
Jolt AI با استفاده از Gemini 2.0 Flash چگونه است؟ این چندین مرحله حیاتی را در خط لوله جستجوی کد آنها فراهم می کند و سرعت و دقت مورد نیاز برای پیمایش و درک مخازن عظیم را فراهم می کند. در حالی که جزئیات دقیق «سس مخفی» آنها است، تأثیر آن واضح است: Gemini 2.0 Flash به Jolt AI امکان میدهد به سرعت اطلاعات مناسب را در پایگاههای کد پیچیده نشان دهد.
تغییر به API Gemini بسیار کارآمد بود. Spektor گزارش می دهد: "چند ساعت برای پیاده سازی SDK و 2 روز برای تنظیم و آزمایش سریع." این تیم همچنین از استودیوی هوش مصنوعی گوگل برای ایده پردازی و تنظیم سریع و ساده سازی فرآیند توسعه استفاده کرد.
نتایج: سریعتر، کیفیت بالاتر و مقرون به صرفه تر
حرکت به سمت Gemini 2.0 Flash نتایج چشمگیری برای Jolt AI به همراه داشته است:
کاهش 70 تا 80 درصدی زمان پاسخگویی: مراحل پشتیبانی شده با هوش مصنوعی در خط لوله جستجوی آنها به طور قابل توجهی سریعتر است.
پاسخ های با کیفیت بالاتر و سازگارتر: کاربران نتایج بهتری را بیش از دو برابر سریعتر دریافت می کنند.
80٪ هزینه کمتر: بارهای کاری هوش مصنوعی منتقل شده اکنون به طور قابل توجهی مقرون به صرفه تر هستند.
اسپکتور تأکید میکند: «ما بیش از دو برابر سریعتر پاسخهای باکیفیتتری به کاربرانمان میدهیم». این ترکیبی از سرعت، کیفیت و صرفه جویی در هزینه بر قدرت Gemini 2.0 Flash برای برنامه های کاربردی حیاتی تاکید می کند.
تمرکز آینده و بینش توسعه دهندگان
Jolt AI به طور فعال پشتیبانی IDE خود را با افزونه JetBrains آینده گسترش می دهد و دسترسی API را بررسی می کند. Spektor در مورد پتانسیل گسترده تر Jolt AI در سراسر شرکت ها هیجان زده است، از کمک به توسعه دهندگان و رهبران مهندسی گرفته تا حمایت از تیم های پشتیبانی مشتری و فعال کردن خطوط خودکار کد AI.
Spektor با بازتاب سفر خود با Gemini API، این توصیه را به توسعه دهندگان دیگر ارائه می دهد:
Gemini 2.0 Flash از آنچه فکر میکنید توانایی بیشتری دارد، روی آن نخوابید. در یادآوری بسیار خوب است - بسیار بهتر از برخی مدلهای کند و گرانتر.» او همچنین توسعهدهندگان را تشویق میکند تا جدیدترین مدلهای خانواده Gemini را بررسی کنند: "نسل جدید، Gemini 2.0 Flash و Gemini 2.5 Pro، باید مورد بررسی قرار گیرند. Gemini 2.0 Flash محصول ما را بیش از دو برابر سریعتر کرده و در عین حال کیفیت پاسخها را افزایش داده است. مدلهای جدید یک عملکرد گام اصلی هستند."
داستان موفقیت Jolt AI نشان میدهد که چگونه سرعت و قابلیت Gemini 2.0 Flash میتواند ابزارهای توسعهدهنده مبتنی بر هوش مصنوعی را بهویژه ابزارهایی که با پیچیدگیهای پایگاههای کد بزرگ سروکار دارند، بهطور چشمگیری افزایش دهد.
هوش مصنوعی بهینه از Gemini API برای کاهش زمان بازبینی کد تا 50٪ استفاده می کند.
لانگ بیس
عوامل هوش مصنوعی با توان عملیاتی بالا و کم هزینه با Gemini Flash در Langbase
کالکام
تجزیه و تحلیل سریع و دقیق تغذیه با CalCam و Gemini 2.0 Flash
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],[],[],[],null,["[](/showcase) \nShare\nAPRIL 9, 2025 \n\nScaling Code Understanding: How Jolt AI Leverages the Gemini API \nYev Spektor\n\nCEO \nVishal Dharmadhikari\n\nProduct Solutions Engineer \n\nDevelopers working with sprawling, production-scale codebases know the pain. Understanding context, finding relevant files, and making changes can feel like navigating a labyrinth. [Jolt AI](https://www.usejolt.ai/) is tackling this head-on with a codegen and chat tool designed specifically for real-world, 100K+ line codebases. Their secret weapon for delivering both speed and accuracy? The Gemini API, particularly Gemini 2.0 Flash.\n\n\n\u003cbr /\u003e\n\n\nJolt AI's mission is to enable developers to instantly understand and contribute to any codebase. Many of today's tools struggle with large, existing codebases and require users to manually select context files. It's tedious and impractical. Jolt AI uses a novel semantic search that accurately and automatically identifies the relevant context files. It's a game-changer for feature development, bug fixing, onboarding, and more.\n\nThe challenge for Jolt AI was finding a model that could power their search pipeline with the right blend of speed, consistency, and code understanding. \"We were looking to speed up 3 AI-backed steps in our code search pipeline,\" explains Yev Spektor, CEO of Jolt AI. \"Each step requires an understanding of various programming languages, frameworks, user code, and user intent.\"\n\nGemini 2.0 Flash: Delivering Speed and Enhanced Code Understanding \n\nEnter Gemini 2.0 Flash. For Jolt AI, this model delivered the performance leap they were seeking. \"After some prompt tuning, we were able to get more consistent, higher-quality output with Gemini 2.0 Flash than we had with a slower, larger model from another provider,\" Spektor notes.\n\n\n\u003cbr /\u003e\n\n\nHow is Jolt AI using Gemini 2.0 Flash? It powers several crucial steps in their code search pipeline, providing the speed and accuracy needed to navigate and understand massive repositories. While the exact details are their \"secret sauce,\" the impact is clear: Gemini 2.0 Flash enables Jolt AI to quickly surface the right information within complex codebases.\n\n\n\u003cbr /\u003e\n\n\nSwitching to the Gemini API was remarkably efficient. \"A couple hours to get the SDK implemented, and 2 days for prompt tuning and testing,\" reports Spektor. The team also utilized Google AI Studio for prompt ideation and tuning, streamlining the development process.\n\nThe Results: Faster, Higher Quality, and More Cost-Effective \n\nThe move to Gemini 2.0 Flash has yielded impressive results for Jolt AI:\n\n\n\u003cbr /\u003e\n\n\n- **70-80% Reduction in response times:** The AI-backed steps in their search pipeline are significantly faster.\n- **Higher quality and more consistent answers:** Users receive better results more than twice as fast.\n- **80% Lower costs:** The migrated AI workloads are now significantly more cost-effective.\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\"We are getting higher-quality answers to our users more than twice as quickly,\" Spektor emphasizes. This combination of speed, quality, and cost savings underscores the power of Gemini 2.0 Flash for performance-critical applications.\n\n\u003cbr /\u003e\n\nFuture Focus and Developer Insights \n\nJolt AI is actively expanding its IDE support with an upcoming JetBrains plugin and exploring API accessibility. Spektor is excited about the broader potential of Jolt AI across enterprises, from aiding developers and engineering leaders to supporting customer support teams and enabling automated AI code pipelines.\n\n\n\u003cbr /\u003e\n\n\nReflecting on their journey with the Gemini API, Spektor offers this advice to fellow developers:\n\n\n\u003cbr /\u003e\n\n\n\"Gemini 2.0 Flash is more capable than you think, don't sleep on it. It's very good at recall - much better than some slow, more expensive models.\" He also encourages developers to explore the latest models from the Gemini family: \"The new generation, Gemini 2.0 Flash and Gemini 2.5 Pro, need to be looked at. Gemini 2.0 Flash has made our product over twice as fast while increasing the quality of responses. The new models are a major step function.\"\n\n\n\u003cbr /\u003e\n\n\nJolt AI's success story highlights how the speed and capability of Gemini 2.0 Flash can significantly enhance AI-powered developer tools, especially those dealing with the complexities of large codebases.\n\n\n\u003cbr /\u003e\n\n\nReady to build? Explore the [Gemini API documentation](https://ai.google.dev/gemini-api) and get started with [Google AI Studio](https://aistudio.google.com/) today. \n\nRelated case studies \n[Optimal AI\nOptimal AI Uses the Gemini API to Cut Code Review Times by 50%](/showcase/optimalai) [Langbase\nHigh-throughput, low-cost AI agents with Gemini Flash on Langbase](/showcase/langbase) [Calcam\nFast, accurate nutritional analysis with CalCam and Gemini 2.0 Flash](/showcase/calcam)"]]