تصفح جميع التصنيفات
···
تسجيل الدخول / التسجيل

مطوّر SAP

الراتب عند المقابلة

Brixio

Dubai - United Arab Emirates

المفضلة
مشاركة

تمت ترجمة بعض المحتوى تلقائيًا.عرض الأصل
وصف

موقع الوظيفة: الإمارات العربية المتحدة (في الموقع) / الفلبين (عن بُعد بالكامل) أو أوروبا (عن بُعد بالكامل) في بريكسو، نحن ملتزمون بتقديم خدمة استثنائية لكل من عملائنا وفريق المستشارين لدينا. مع وجود قوي في منطقة أوروبا والشرق الأوسط وأفريقيا وآسيا والمحيط الهادئ، نتعاون مع شركات رائدة في مختلف الصناعات، ونساعدهم في المشاريع الرئيسية من خلال الخبرة المناسبة—وبفضل مستشارينا الموهوبين. للبقاء في المقدمة في صناعة سريعة الحركة، نحن دائمًا نبحث عن محترفين مهرة للانضمام إلى مجموعتنا من المواهب. تُعد شبكة المستشارين لدينا أمرًا بالغ الأهمية للاستجابة السريعة لاحتياجات العملاء، والتأكد من أننا نستطيع ربط الخبراء المناسبين بالفرص المناسبة. ومن خلال الانضمام إلينا، ستكون جزءًا من فريق ديناميكي يلعب دورًا حيويًا في تحقيق النتائج للشركات عبر مناطق مختلفة. إذا كنت تبحث عن فرص استشارية مثيرة وتريد أن تكون من أوائل من يسمعون عن مشاريع جديدة تتناسب مع مهاراتك، فنحن نود أن نسمع منك. شارك سيرتك الذاتية معنا من خلال التقديم عبر هذا الرابط. دعونا نبني معًا شيئًا عظيمًا ونربطك بفرص استشارية رفيعة المستوى في مجال تكنولوجيا المعلومات. انضم إلى بريكسو اليوم وكن جزءًا من شبكة تُقدّر الخبرة والمرونة والتأثير.


موقع
Dubai - United Arab Emirates
عرض الخريطة

Workable
3,439منتجات

قد يعجبك أيضا

Workable
Data Engineer
Dubai - United Arab Emirates
About DeepLight: DeepLight is a pioneering AI company committed to pushing the boundaries of innovation in artificial intelligence. Our mission is to harness the power of data and machine learning to revolutionize industries and create a brighter future. With a dynamic team of experts and a culture of relentless innovation, we are at the forefront of AI research and development. Position Overview: DeepLight is seeking an exceptional Data Engineer to join our team of AI specialists in the UAE. As an Expert Data Engineer, you will be responsible for designing, implementing, and optimizing data pipelines and infrastructure to support our cutting-edge AI systems. You will collaborate closely with our multidisciplinary team to ensure the efficient collection, storage, processing, and analysis of large-scale data, enabling us to unlock valuable insights and drive innovation across various domains. Requirements · Pipeline Development: Design, develop, and maintain scalable and reliable data pipelines to ingest, transform, and load diverse datasets from various sources, including structured and unstructured data, streaming data, and real-time feeds, with consideration for downstream AI/ML workloads. · Data Integration: Implement robust data integration processes to seamlessly integrate data from different sources, ensuring consistency, reliability, and data quality for analytics and AI use cases. · Data Storage: Design and optimize data storage solutions, including relational databases, NoSQL databases, data lakes, and cloud storage services, to efficiently store and manage large volumes of data for AI and machine learning model consumption. · Performance Optimization: Optimize data processing and query performance to enhance system scalability, reliability, and efficiency, leveraging techniques such as indexing, partitioning, caching, and parallel processing—especially for AI model training and inference pipelines. · Data Governance: Implement data governance frameworks to ensure data security, privacy, integrity, and compliance with regulatory requirements, including data encryption, access controls, and auditing—crucial for responsible AI deployment. · Monitoring and Maintenance: Monitor data pipelines and infrastructure components, proactively identify and address issues, and perform routine maintenance tasks to ensure system stability and reliability across AI and data science environments. · Collaboration: Collaborate closely with cross-functional teams, including data scientists, ML engineers, architects, and domain experts, to understand AI/ML requirements, gather insights, and deliver integrated, production-ready data solutions. · Documentation: Create comprehensive documentation, including technical specifications, data flow diagrams, and operational procedures, to facilitate understanding, collaboration, and knowledge sharing across AI and analytics teams. · Proven experience as a Data Engineer, with a track record of designing and implementing complex data pipelines and infrastructure solutions that support advanced analytics and AI initiatives. · Expertise in data modeling, ETL (Extract, Transform, Load) processes, and data warehousing concepts, with proficiency in SQL and scripting languages (e.g., Python, Scala)—especially in AI pipeline preparation and feature engineering. · Strong hands-on experience with big data technologies and frameworks, such as Hadoop, Spark, Kafka, and Flink, as well as cloud platforms (e.g., AWS, Azure, GCP) commonly used for AI workloads. · Familiarity with containerization and orchestration technologies, such as Docker and Kubernetes, and DevOps practices for CI/CD (Continuous Integration/Continuous Deployment), including ML model deployment and data pipeline automation. · Experience supporting AI/ML initiatives, including the preparation of training datasets, model input/output data flows, MLOps integration, and experimentation tracking. · Excellent analytical, problem-solving, and communication skills, with the ability to translate complex technical concepts into clear and actionable insights. · Proven ability to work effectively in a fast-paced, collaborative environment, with a passion for innovation, continuous learning, and contributing to AI-driven solutions. Benefits Why Join DeepLight? ·   Impact: Be part of a dynamic team that is shaping the future of AI and making a meaningful impact on industries and society. ·   Innovation: Work on cutting-edge projects at the intersection of AI, data engineering, and machine learning, leveraging the latest technologies and methodologies. ·   Collaboration: Collaborate with a diverse team of experts from various disciplines, fostering creativity, learning, and growth. ·   Opportunity: Enjoy ample opportunities for professional development, career advancement, and leadership roles in a rapidly growing company. ·   Culture: Join a culture of curiosity, excellence, and collaboration, where your ideas are valued, and your contributions are recognized and rewarded.   If you are passionate about data engineering, AI, and innovation, and you thrive in a dynamic and collaborative environment, we want to hear from you! Apply now to join DeepLight and be part of our journey to unlock the potential of AI for a brighter future.
الراتب عند المقابلة
Workable
مهندس بيانات ذكاء اصطناعي
Dubai - United Arab Emirates
نحن نوظف نيابة عن عميلنا – مكتب عائلي تم إطلاقه حديثًا – يبحث عن مهندس بيانات ذكاء اصطناعي يتمتع بخبرة قوية في دمج الذكاء الاصطناعي لمساعدته في تشغيل نماذجه المالية وبنيته التحتية للبيانات. يركّز هذا الدور على تنفيذ الأدوات الحالية وتوصيلها، وليس على بناء نماذج أو بنى تحتية من الصفر. ستشغل أنت دورًا رئيسيًا في أتمتة سير العمل، وإدارة أنظمة البيانات، وتمكين الوصول إلى البيانات في الوقت الفعلي لتحسين عمليات اتخاذ القرار. المهام الرئيسية: ترقية وإدارة حسابات واجهة برمجة التطبيقات المؤسسية عبر مزودي النماذج الكبيرة (مثل OpenAI و DeepSeek)، مع التركيز على تحسين الاستخدام والتكلفة. أتمتة تشغيل النماذج المالية باستخدام الأطر والأدوات الحالية (مثل LangChain وZapier). نقل وثائق النماذج وتخزين البيانات من الأجهزة المحمولة إلى قواعد بيانات سحابية مع التحكم بالإصدار. إنشاء سير عمل لأتمتة دمج نماذج مالية متعددة (مثل التقلبات، والتحليل الأساسي) بناءً على أنواع الأصول وحالات الاستخدام. دمج بيانات مالية فورية من خلال أنظمة توليد معززة بالاسترجاع (RAG) لضمان دقة النماذج وملاءمتها. المؤهلات: خبرة مثبتة في هندسة البيانات ودمج أدوات الذكاء الاصطناعي/النماذج الكبيرة (LLM) في الأنظمة التشغيلية. معرفة قوية بإدارة واجهات برمجة التطبيقات (API)، وأدوات الأتمتة، والبنية التحتية السحابية. الخبرة في استخدام LangChain وقواعد البيانات المتجهة ومنصات التنسيق أمر مرغوب فيه بشدة. الخبرة السابقة في العمل مع البيانات المالية أو دعم الفرق الكمية تُعد ميزة كبيرة. مهارات ممتازة في حل المشكلات وموقف استباقي وقادر على البدء الذاتي.
الراتب عند المقابلة
Dubizzle
مهندس دعم تقنية المعلومات
9GJP+59 Abu Dhabi - United Arab Emirates
عاجل! نحن نوظف، أرسل سيرتك الذاتية الآن. مهندس دعم تقنية المعلومات في الموقع الموقع: أبوظبي، الإمارات العربية المتحدة الراتب: 4,500 درهم إماراتي تاريخ الانضمام: فوراً أو كحد أقصى خلال 30 يوماً رخصة القيادة: مطلوبة (تُوفر الشركة مركبة) --- نحتاجك إذا كنت: تمتلك خبرة من 3 إلى 5 سنوات في دعم تقنية المعلومات. تستطيع تقديم دعم تقني من المستوى الأول في مجالات تقنية المعلومات، والشبكات، والأمن السيبراني. تتحدث وتكتب الإنجليزية بطلاقة. تمتلك رخصة قيادة إماراتية سارية، وستُوفر لك الشركة سيارة للتنقل أثناء المهام. --- مما ستقوم به: ✅ تشخيص الأعطال وتكوين أنظمة تقنية المعلومات. ✅ العمل مع مهندسي المستوى الثاني/الثالث. ✅ تقديم الدعم الميداني والتقني من خلال مركز المساعدة. --- الجدول الزمني: من الإثنين إلى الجمعة، من الساعة 9:00 صباحاً إلى 6:00 مساءً مع يومين عطلة في عطلة نهاية الأسبوع. --- تقدم الآن ⚠️ لن يتم النظر سوى في المرشحين القادرين على الانضمام فوراً أو خلال فترة إشعار لا تزيد عن 30 يوماً.
4,500 درهم/شهر
Workable
مهندس بيانات (PySpark) - بنك رائد في الإمارات، خبير منصة بيانات Cloudera
Dubai - United Arab Emirates
مسمى الوظيفة: مهندس بيانات (PySpark) ________________________________________ عن الدور نبحث عن مهندس بيانات ذا مهارة عالية وخبرة عميقة في PySpark ومنصة بيانات Cloudera (CDP) للانضمام إلى فريق هندسة البيانات لدينا. كمهندس بيانات، ستكون مسؤولاً عن تصميم وتطوير وصيانة خطوط أنابيب البيانات القابلة للتوسع لضمان جودة البيانات العالية وتوافرها عبر المؤسسة. يتطلب هذا الدور خلفية قوية في نظم البيانات الكبيرة، وأدوات السحابة الأصلية، وتقنيات معالجة البيانات المتقدمة. يجب أن يكون المرشح المثالي لديه خبرة عملية في استيعاب البيانات، وتحويلها، وتحسينها على منصة بيانات Cloudera، مع سجل حافل في تطبيق أفضل ممارسات هندسة البيانات. ستعمل عن كثب مع مهندسي بيانات آخرين لبناء حلول تُسهم في تحقيق رؤى أعمال مؤثرة. المسؤوليات تطوير خطوط أنابيب البيانات: تصميم وتطوير وصيانة خطوط أنابيب ETL عالية القابلية للتوسع والمُحسّنة باستخدام PySpark على منصة بيانات Cloudera، مع ضمان سلامة البيانات ودقتها. استيعاب البيانات: تنفيذ وإدارة عمليات استيعاب البيانات من مصادر متنوعة (مثل قواعد البيانات العلائقية، واجهات برمجة التطبيقات APIs، أنظمة الملفات) إلى بحيرة البيانات أو مستودع البيانات على CDP. تحويل ومعالجة البيانات: استخدام PySpark لمعالجة وتنقية وتحويل مجموعات البيانات الكبيرة إلى صيغ ذات معنى تدعم الاحتياجات التحليلية ومتطلبات العمل. تحسين الأداء: إجراء ضبط أداء كود PySpark ومكونات Cloudera، وتحسين استخدام الموارد وتقليل وقت تشغيل عمليات ETL. جودة البيانات والتحقق منها: تنفيذ فحوصات جودة البيانات، والرصد، وإجراءات التحقق لضمان دقة البيانات وموثوقيتها طوال خط الأنابيب. الأتمتة والتنظيم: أتمتة سير عمل البيانات باستخدام أدوات مثل Apache Oozie أو Airflow أو أدوات تنظيم مماثلة ضمن نظام Cloudera البيئي. المراقبة والصيانة: مراقبة أداء خطوط الأنابيب، وحل المشكلات، وإجراء الصيانة الروتينية على منصة بيانات Cloudera والعمليات المرتبطة بها. التعاون: العمل بشكل وثيق مع مهندسي بيانات آخرين، و محللي البيانات، ومديري المنتجات، وأصحاب المصلحة الآخرين لفهم متطلبات البيانات ودعم المبادرات المختلفة القائمة على البيانات. التوثيق: الحفاظ على توثيق دقيق وشامل لعمليات هندسة البيانات، والكود، وإعدادات خطوط الأنابيب.  المؤهلات  التعليم والخبرة درجة البكالوريوس أو الماجستير في علوم الحاسوب، أو هندسة البيانات، أو نظم المعلومات، أو مجال ذي صلة. 3+ سنوات من الخبرة كمهندس بيانات، مع تركيز قوي على PySpark ومنصة بيانات Cloudera.  المهارات التقنية PySpark: احتراف متقدم في PySpark، بما في ذلك العمل مع RDDs وDataFrames وتقنيات التحسين. منصة بيانات Cloudera: خبرة قوية في مكونات منصة بيانات Cloudera (CDP)، بما في ذلك Cloudera Manager وHive وImpala وHDFS وHBase. مستودعات البيانات: معرفة بمفاهيم مستودعات البيانات، وأفضل ممارسات ETL، وخبرة في استخدام أدوات تعتمد على SQL (مثل Hive وImpala). تقنيات البيانات الكبيرة: معرفة بـ Hadoop وKafka وأدوات الحوسبة الموزعة الأخرى. التنظيم والجدولة: خبرة في Apache Oozie أو Airflow أو أطر تنظيم مماثلة. البرمجة الآلية والكتابة النصية: مهارات قوية في البرمجة النصية باستخدام Linux.  المهارات الشخصية مهارات تحليلية وحل المشكلات قوية. قدرات اتصال شفهية وكتابية ممتازة. القدرة على العمل بشكل مستقل وجماعي في بيئة الفريق. الاهتمام بالتفاصيل والالتزام بجودة البيانات.
الراتب عند المقابلة
Dubizzle
كلاس إدخال بيانات
24 Circle 90 - Jumeirah Village - Jumeirah Village Circle - Dubai - United Arab Emirates
نقوم بتوظيف كلاس إدخال بيانات للانضمام إلى فريقنا وضمان إدارة دقيقة وفعالة للبيانات. المهام والمسؤوليات: إدخال البيانات وتحديثها والحفاظ على دقتها في أنظمة الشركة وقواعد البيانات. التحقق من صحة البيانات واكتمالها قبل إدخالها. تنظيم وتخزين المستندات والسجلات والملفات بشكل آمن. إعداد وإنشاء التقارير عند الحاجة. تقديم المساعدة في المهام الإدارية ودعم الأقسام الأخرى عند الحاجة. الحفاظ على سرية المعلومات الحساسة. المتطلبات: خبرة مثبتة في وظيفة كلاس إدخال بيانات أو في دور مشابه. مهارات قوية في الكتابة السريعة مع الاهتمام بالتفاصيل والدقة. معرفة أساسية ببرامج Microsoft Office (Word، Excel). مهارات جيدة في التنظيم وإدارة الوقت. القدرة على العمل بشكل مستقل والالتزام بالمواعيد النهائية. يمكن للمتقدمين المهتمين إرسال سيرتهم الذاتية عبر واتساب: +971 509233252
5,999-4,000 درهم/شهر
كوكيز
إعدادات الكوكيز
تطبيقاتنا
Download
حمِّل من
APP Store
Download
احصل عليه من
Google Play
© 2025 Servanan International Pte. Ltd.