Trace Id is missing
تخطي إلى المحتوى الرئيسي
Microsoft AI

الذكاء الاصطناعي المسؤول في Microsoft

استكشف الأدوات والممارسات والنُهج التي أنشأناها للحفاظ على مبادئ الذكاء الاصطناعي المسؤول.
صورة لرجل يرتدي نظارات وينظر إلى شاشة كمبيوتر.
الذكاء الاصطناعي المسؤول في Microsoft

التزامنا بالذكاء الاصطناعي المسؤول

في Microsoft، نحن ملتزمون بتصميم وبناء وإطلاق تقنيات الذكاء الاصطناعي بشكل مسؤول - مع إبقاء البشر في المركز وتوجيههم بمبادئنا. لخصنا التزامنا في ستة قيم أساسية تظل الأساس لدينا:

إنشاء أعمالك باستخدام ذكاء اصطناعي موثوق به

اكتشف كيفية تحسين ممارسات الأعمال الآمنة بالذكاء الاصطناعي الأداء وجعلها تحدث تأثيراً بفاعلية.

الأدوات والتدريبات

اعثر على الموارد لمساعدتك في تقييم قرارات أكثر استنارة وفهمها واتخاذها بشأن تطوير الذكاء الاصطناعي واستخدامه.
صورة لرجل يجلس على طاولة ويستخدم قلم.
المصنف

مصنف تجربة الذكاء الاصطناعي البشرية (HAX)

ساعد مؤسستك على تحديد أفضل الممارسات وتنفيذها للتفاعل بين الإنسان والذكاء الاصطناعي.
امرأة تنظر إلى شاشة الكمبيوتر.
مدوّنة

إنشاء تطبيقات آمنة وموثوق بها باستخدام الذكاء الاصطناعي في Azure

نقدم قدرات جديدة للمنتج لتعزيز الأمان والسلامة والخصوصية لأنظمة الذكاء الاصطناعي.
صورة لكمبيوتر محمول مع شاشة على طاولة
مربع الأدوات

لوحة معلومات الذكاء الاصطناعي المسؤول

يمكنك الوصول إلى مجموعة من الأدوات لمساعدتك في إنشاء تجربة ذكاء اصطناعي مخصَّصة ومسؤولة شاملة.
نهج

نهج الذكاء الاصطناعي المتقدم

اكتشف أحدث المنظورات حول سياسة الذكاء الاصطناعي من خبراء Microsoft.

جعل الذكاء الاصطناعي المسؤول قابل للتحقيق

اكتشف كيف تعمل Microsoft على تعزيز التعاون ومساعدة الجميع على استخدام الذكاء الاصطناعي بشكل مسؤول.

الأسئلة المتداولة

  • الذكاء الاصطناعي المسؤول هي مجموعة من الخطوات التي نتخذها للتأكد من أن أنظمة الذكاء الاصطناعي موثوق بها وتلتزم بمبادئ المبدأ الأساسي. وهذا يتضمن العمل على قضايا مثل العدالة والموثوقية والسلامة والخصوصية والأمان والشمول والشفافية والمساءلة. والتفكير بعمق في الطرق التي نصمم بها ونبني ونشغل بها أنظمة الذكاء الاصطناعي.
  • تضمن Microsoft العدالة في أنظمة الذكاء الاصطناعي الخاصة بها من خلال نهج شامل يتضمن المبادئ والممارسات والأدوات المصممة للتخفيف من التحيز وتعزيز الشمول.

    تتضمن مبادئ الذكاء الاصطناعي المسؤول لشركة Microsoft العدالة والموثوقية والسلامة والخصوصية والأمان والشمول والشفافية والمساءلة. توجه هذه المبادئ تطوير أنظمة الذكاء الاصطناعي ونشرها لضمان معاملة الجميع على قدم المساواة ومنع التمييز على أساس الخصائص الشخصية. وتؤكد Microsoft أيضاً على أهمية التحقق من صحة نماذج الذكاء الاصطناعي بشكل مسؤول لتعزيز العدالة والتوافق مع الواقع.
  • عند استخدام أدوات الذكاء الاصطناعي التوليدي، تشمل الاعتبارات الأخلاقية معالجة التحيز والإنصاف، وضمان الخصوصية والأمان، والحفاظ على الشفافية والمساءلة، وتعزيز الشمول، وضمان الموثوقية والسلامة. ومن المهم أيضاً ضمان الدقة والصدق، والحفاظ على الرقابة البشرية، وتطوير أطر صنع القرار الأخلاقي، والامتثال للمتطلبات القانونية والتنظيمية، وتجنب التحيز الضار. تساعد هذه الخطوات على ضمان الاستخدام المسؤول والعادل لتقنيات الذكاء الاصطناعي.
  • لتقديم الذكاء الاصطناعي بشكل مسؤول، يجب على المنظمات تطوير معيار الذكاء الاصطناعي المسؤول، مثل معيار Microsoft، الذي يغطي مبادئ مثل العدالة والموثوقية والخصوصية والشمول.

    فيما يلي الخطوات الإضافية التي قد تتخذها المؤسسات لضمان استخدام الذكاء الاصطناعي المسؤول:
    • يمكن إنشاء مكتب الذكاء الاصطناعي المسؤول للإشراف على السلوكيات والإدارة.
    • يمكن تنفيذ أدوات حوكمة الذكاء الاصطناعي مثل لوحة معلومات الذكاء الاصطناعي المسؤول من Microsoft لمراقبة أنظمة الذكاء الاصطناعي وإدارتها.
    • يمكن إشراك أصحاب المصلحة في جميع أنحاء المنظمة وتوفير التدريب على مبادئ وممارسات الذكاء الاصطناعي المسؤول.
  • يتذكر Microsoft Copilot التفاصيل التي تهم حياتك اليومية مع الحفاظ على أمان بياناتك الشخصية وحماية خصوصيتك. يمكنك دائماً إدارة تفضيلات الخصوصية في إعدادات خصوصية Copilot.

    عند استخدام Copilots في العمل، يتم توريث جميع متطلبات الأمان والامتثال الحالية لديك، وبالتالي يمكن فقط للأشخاص الذين لديهم الأذونات الصحيحة الوصول إلى المحتوى الذي ينشئه.

    وبوصفها شركة، تلتزم Microsoft بتوفير الذكاء الاصطناعي—الموثوق بهمع عقود من الأبحاث وملاحظات العملاء والتعلّم لإعلام الإمكانات التي توفر الخصوصية والأمان.

تعرَّف عل المزيد عن الذكاء الاصطناعي في Microsoft

متابعة Microsoft