من السهل إرسال مطالبة واحدة إلى نموذج لغوي كبير والتحقق مما إذا كانت النتيجة تلبي توقعاتك. ولكن بمجرد بدء تشغيل منتجات حقيقية، من مساعدات استرجاع الإجابة (RAG) إلى الوكلاء المستقلين، فإنك سرعان ما تواجه سؤالاً أصعب: كيف تتأكد من أن النظام يعمل بالفعل؟ للتوضيح في هذا الشأن، انضم إلينا في 6 أغسطس لحضور **ندوة ويب مجانية يستضيفها أكاديمية نيبيوس**، وهي منصة سحابية متخصصة في الذكاء الاصطناعي وتقف وراء Y-DATA ومشاريع تعليمية أخرى موجهة للمتعلمين المهتمين بالتكنولوجيا. عند بنائك أنظمة تعتمد على النماذج اللغوية الكبيرة، فإنك باستمرار تُعدّل المطالب، وتنقّح المنطق، وتحديث المكونات. وهذا يعني أنك بحاجة إلى إعادة تقييم النتائج باستمرار. ولكن التحقق اليدوي من كل شيء لا يمكن تطبيقه على نطاق واسع. توجد تقنيات تقييم آلي يمكننا استعارتها من التعلم الآلي التقليدي. لكن معظم أنظمة النماذج اللغوية الكبيرة تتصرف بشكل مختلف عن النماذج التنبؤية القياسية — فهي تولّد نصوصًا مفتوحة، وتنسق تفكيرها خطوة بخطوة، وتتفاعل مع أدوات خارجية. وهذا يستدعي نهجًا جديدًا في التقييم والرصد. في هذه الندوة، سيُقدّم **المتحدثتان إيمليلي درال وإيلينا سامويولوفا، المؤسستان الشريكتان في** [إيفيدنتلي إيه آي](https://www.evidentlyai.com/)، استراتيجيات عملية لتقييم ومراقبة الأنظمة التي تعمل بالذكاء الاصطناعي. مستندين إلى خبرتهما الواقعية وقراءتهما المتعمقة حول [التقييم](https://nebius-academy.github.io/knowledge-base/evaluation-1-basics/)، سيُرشدونك خلال كيفية: ✔️ تحديد أهداف تقييم ذات معنى للسير العملية التوليدية والوكيلية ✔️ الجمع بين الطرق الآلية وطرق التقييم التي تشمل الإنسان ✔️ تصميم اختبارات انحدار وتحديد إشارات رصد قابلة للتوسع ✔️ تجنّب الأخطاء الشائعة عند تشغيل النماذج اللغوية الكبيرة في الإنتاج إذا كنت تبني أو تحافظ على أنظمة تعتمد على النماذج اللغوية الكبيرة، فإن هذه الجلسة ستساعدك على تجاوز الاختبارات القياسية والتركيز على إنشاء منتجات جديرة بالثقة وموثوقة. احجز الموعد! 📆 6 أغسطس ⏰ 8 مساءً بتوقيت إسرائيل 📹 زووم 👉 [انضم إلى الندوة](https://nebius.com/events/evaluating-llms-wild-practical-approaches-testing-observability?utm_source=mtp&utm_medium=evt&utm_campaign=inhouse_isr_web-0608) نراكم هناك!