






المهام: تطوير أطر محاذاة الذكاء الاصطناعي العام والتحكم فيه، وبناء أنظمة محاذاة قيم الذكاء الاصطناعي، وإنشاء نماذج تقييم مخاطر الذكاء الاصطناعي. قيادة توحيد المعايير الدولية لسلامة الذكاء الاصطناعي. المتطلبات: درجة دكتوراه في سلامة الذكاء الاصطناعي/محاذاة الذكاء الاصطناعي، وخبرة تزيد عن 10 سنوات في بحوث أخلاقيات الذكاء الاصطناعي وسلامته، وإسهامات في فرق السلامة التابعة لشركة Anthropic أو OpenAI. منشورات في المؤتمرات الرائدة عالميًا في مجال سلامة الذكاء الاصطناعي.


