تصفح جميع التصنيفات
···
تسجيل الدخول / التسجيل
تقييم نماذج اللغة الكبيرة في البيئة الحقيقية: أساليب عملية للاختبار والرصد63290947588866110
المفضلة
مشاركة

تقييم نماذج اللغة الكبيرة في البيئة الحقيقية: أساليب عملية للاختبار والرصد

addressF5HW+FGX, Vaiaku, Tuvalu

تمت ترجمة بعض المحتوى تلقائيًا.عرض الأصل
وصف

من السهل إرسال مطالبة واحدة إلى نموذج لغوي كبير والتحقق مما إذا كانت النتيجة تلبي توقعاتك. ولكن بمجرد أن تبدأ في طرح منتجات حقيقية، من مساعدات الاسترجاع والتكوين (RAG) إلى الوكلاء المستقلين، فإنك سرعان ما تواجه سؤالاً أصعب: كيف تتأكد أن النظام يعمل بالفعل؟ للحصول على وضوح حول هذا الأمر، انضم إلينا في 6 أغسطس لمتابعة **ندوة عبر الإنترنت مجانية ينظمها أكاديمية نيبوس**، وهي منصة سحابية متخصصة في الذكاء الاصطناعي وتُعنى بمشاريع تعليمية مثل Y-DATA وغيرها من المشاريع التعليمية الموجهة للمتعلمين المهتمين بالتكنولوجيا. عندما تبني أنظمة باستخدام النماذج اللغوية الكبيرة، فإنك باستمرار تُعدّل المطالبات، وتنقّح المنطق، وتحديث المكونات. وهذا يعني أنك بحاجة إلى إعادة تقييم المخرجات باستمرار. ولكن التحقق اليدوي من كل شيء لا يمكن تطبيقه على نطاق واسع. توجد تقنيات تقييم آلية يمكننا الاستفادة منها من التعلم الآلي التقليدي. ولكن معظم أنظمة النماذج اللغوية الكبيرة تتصرف بشكل مختلف عن النماذج التنبؤية القياسية — فهي تولد نصوصًا مفتوحة، وتنسق تفكيرها خطوة بخطوة، وتفاعل مع أدوات خارجية. وهذا يستدعي نهجًا جديدًا في التقييم والرصد. في هذه الندوة، سيقوم **المتحدثان إيميلي درال وإيلينا سامويولوفا، المؤسستان الشريكتان في** [Evidently AI](https://www.evidentlyai.com/)، بشرح استراتيجيات عملية لتقييم ومراقبة الأنظمة المعتمدة على النماذج اللغوية الكبيرة. مستفيدين من خبرتهما الواقعية ومن [مقالتهما الموسعة حول التقييم](https://nebius-academy.github.io/knowledge-base/evaluation-1-basics/)، سيوضحان لك كيفية: ✔️ وضع أهداف تقييم ذات معنى للسير العمل التوليدية والوكلائية ✔️ الجمع بين الطرق الآلية وطرق التقييم التي تشمل الإنسان ✔️ تصميم اختبارات الانحدار وتحديد إشارات الرصد القابلة للتوسع ✔️ تجنّب أكثر الأخطاء شيوعًا عند نشر النماذج اللغوية الكبيرة في الإنتاج إذا كنت تبني أو تُحافظ على أنظمة تعتمد على النماذج اللغوية الكبيرة، فإن هذه الجلسة ستساعدك على تجاوز مقاييس الأداء والتركيز على إنشاء منتجات جديرة بالثقة وموثوقة. احجز الموعد! 📆 6 أغسطس ⏰ 8 مساءً بالتوقيت الإسرائيلي 📹 عبر Zoom 👉 [انضم إلى الندوة](https://nebius.com/events/evaluating-llms-wild-practical-approaches-testing-observability?utm_source=mtp&utm_medium=evt&utm_campaign=inhouse_isr_web-0608) نراكم هناك!

المصدر:  meetup عرض المنشور الأصلي

موقع
F5HW+FGX, Vaiaku, Tuvalu
عرض الخريطة

meetup

قد يعجبك أيضا

كوكيز
إعدادات الكوكيز
تطبيقاتنا
Download
حمِّل من
APP Store
Download
احصل عليه من
Google Play
© 2025 Servanan International Pte. Ltd.