RAG Architecture Explained

SAMI
أكتوبر 13, 2025 1 min to read
Share

هاوّا باش نفسّرولكم بطريقة تونسية مبسّطة شنوّة هو الــ RAG Architecture، شنوة فايدتو، مكوناتو، وأنواعو المختلفة. باختصار، الــ RAG هو نوع من AI Models يجمع بين زوز أفكار أساسية:
الأولى هي الاسترجاع (Retrieval)، يعني يجيب المعلومة من مصدر خارجي،
والثانية هي التوليد (Generation)، يعني يستعمل المعلومة اللي لقاها باش يولّد إجابة ذكيّة على السّؤال.


المقدّمة

تخيّل روحك مبرمج، باش نسألوك شوية أسئلة في الكيمياء الحيويّة. أول مرّة، تجاوب على قد ما تعرف. ثاني مرّة، نعطيوك كتب ومصادر تتعمّق فيهم وبعدها نسألوك نفس الأسئلة. أكيد المرة الثانية إجاباتك تكون أدقّ.
اللي صار في المثال هذا هو نفس فكرة الــ RAG: النموذج يراجع المصادر (Retrieval) ثم يجاوب بناءً على السياق اللي تعلّمو (Generation).


شنوّة هو RAG؟

نماذج RAG (Retrieval-Augmented Generation) هي نوع من AI Models يجمع بين الاسترجاع والتوليد:

  • Retrieval: يبحث في Database أو وثائق خارجية.
  • Generation: يستعمل اللي لقاها باش يولّد إجابة جديدة ومناسبة.

يعني النموذج ما يعتمدش كان على اللي اتدرّب عليه (كيف GPT مثلاً)، بل يزيد عليه data حديثة ومخصّصة من برّا، باش يجاوب بطريقة أدقّ ومواكبة.


علاش نستعمل RAG Architecture؟

اليوم أكثر من 60% من تطبيقات LLMs في الشركات تخدم بالــ RAG Architecture (حسب Databricks)، لأنها تعطي إجابات أدقّ بنسبة تقريب 40% من النماذج اللي تعتمد كان على fine-tuning.

الأسباب:

  1. Static Datasets: الـ LLM يكون متدرّب على بيانات قديمة (مثلاً لحدّ 2023) وما يعرفش الجديد.
  2. No Local Data Access: ما ينجمش يوصل لـ data الداخلية متاع الشركة، فلو تسألو حاجة تخصّ شركتك، يعطيك إجابة عامّة أو “يهلوس”.
  3. Hallucinations: النماذج الكبيرة تحاول تجاوب على أي سؤال حتى بلا سياق، فتعطي إجابات “شكلها صحيحة” لكن في الحقيقة غالطة.

كيفاش تخدم RAG Application؟

1. Offline Stage

نجمع البيانات من مصادر مختلفة (ملفات، APIs…)، نقسمها على chunks، وبعد نحطّها في Embedding Model (كيف OpenAI’s text-embedding-3 ولا Cohere Embeddings) اللي يحوّل النصوص إلى Vectors تمثّل المعنى مش الكلمة فقط.

بعدها نحطّ الـ Vectors في Vector Database، خاطر عملية الـ Retrieval في الأساس بحث شبكي (Graph-based Search) أسرع وأدقّ من البحث العادي. مثلاً، كي يكون عندك 100 ألف وثيقة وتحب تلقى حاجة، Vector Databases تنظم المعاني المتشابهة جنب بعض، فالبحث يكون أسرع برشة.

2. Online Stage

وقت المستخدم يبعث Query، النموذج يعمللو Embedding هو زادة، يبحث في الـ Vector Database على أقرب المعاني، ويرجعهم للـ LLM Model.
النموذج بعد يختار أنسب المقاطع ويستعملهم كسياق (Context) باش يولّد إجابة دقيقة.


أنواع RAG

1. Naive RAG

الطريقة الأبسط: النموذج يجيب أقرب chunks حسب keyword matching أو تشابه بسيط في المعنى، ويستعملهم كما هم باش يجاوب.

2. Advanced RAG

هنا نحسّن الخطوات:

  • نعمل Query Expansion (نضيف كلمات تساعد البحث).
  • نعمل Iterative Retrieval (نكرّر البحث باش نحسّن النتيجة).
  • نطبّق Relevance Scoring باش نرتّب النتائج حسب أهميتها للسؤال.

الطريقة هذي تخلي الإجابة النهائية أدقّ برشة.

3. Agentic / Tool-Augmented RAG

في النوع هذا، الـ LLM يخدم كـ AI Agent يقرّر وحدو شنوّة الأدوات اللي يستعملها:
يعمل API Calls، Documents Search، أو أكثر من نوع بحث في نفس الوقت.
النتائج تكون دقيقة، أما تتطلّب موارد أكثر وتنفيذ أعقد.


الخلاصة

الـ RAG Architecture هي طريقة ذكيّة تربط بين استرجاع البيانات وتوليد الإجابات، وتخلي تطبيقات AI أكثر دقّة وواقعية في خدمة الشركات.

لو تحبّ نعمل ورقة خاصّة على Embedding Models أو نحكي أكثر على AI Applications في تونس، اكتبلي في التعليقات.


المصادر

للي يحب يتعمّق أكثر:
https://www.leewayhertz.com/advanced-rag/#from-basic-to-advanced-rag


1 Comment on “RAG Architecture Explained”

  1. Amine Ennouri
    أكتوبر 14, 2025

    intéressant 👌

Leave a comment

Your email address will not be published. الحقول الإلزامية مشار إليها بـ *