لقد حددنا ستة مبادئ نعتقد أنها يجب أن توجه التطوير المصاحب للذكاء الاصطناعي واستخدامه.
الإنصاف
يجب أن تتعامل أنظمة الذكاء الاصطناعي مع جميع الأشخاص بطريقة مقبولة. كيف يمكن لنظام الذكاء الاصطناعي تخصيص الفرص أو الموارد أو المعلومات بطرق منصفة للأشخاص الذين يستخدمونه؟
الوثوقية والأمان
يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل موثوق وآمن. كيف يمكن للنظام أن يعمل بشكل جيد للأشخاص عبر ظروف وسياقات الاستخدام المختلفة، بما في ذلك تلك التي لم يكن مخصصاً لها في الأصل؟
الخصوصية والأمان
يجب أن تكون أنظمة الذكاء الاصطناعي آمنة وتحترم الخصوصية. كيف يمكن تصميم النظام لدعم الخصوصية والأمان؟
الشمولية
يجب أن تمكن الأنظمة الذكاء الاصطناعي الجميع وتشرك جميع الأشخاص، بغض النظر عن خلفيتهم. كيف يمكن تصميم النظام بحيث يشمل الأشخاص من جميع القدرات؟
الشفافية
يجب أن تكون أنظمة الذكاء الاصطناعي مفهومة. كيف يمكننا ضمان فهم الأشخاص بشكل صحيح لقدرات النظام هذه؟
المسؤولية
يجب أن يكون الأشخاص مسؤولين عن أنظمة الذكاء الاصطناعي. كيف يمكننا وضع الرقابة بحيث يمكن للبشر أن يكونوا مسؤولين ومسيطرين؟
اكتشف كيف تمكن Microsoft الموظفين عبر المؤسسة ليكونوا أبطال الذكاء الاصطناعي المسؤول.
لقد وضعنا قواعد لتفعيل الذكاء الاصطناعي المسؤول ونحدد بوضوح الأدوار والمسؤوليات للفرق المشاركة.
نعزز الاستعداد لتبني ممارسات الذكاء الاصطناعي المسؤولة، سواء داخل شركتنا أو مع عملائنا وشركائنا.
نراجع حالات الاستخدام الحساسة للتأكد من أننا نلتزم بمبادئ الذكاء الاصطناعي المسؤولة.
نعمل على صياغة قوانين ومعايير جديدة للمساعدة في ضمان تحقيق وعد الذكاء الاصطناعي للمجتمع ككل.
يحافظ الباحثون في Aether وMicrosoft Research والفرق الهندسية لدينا على برنامج RAI على الحافة الرائدة.
تجري Teams أبحاثا صارمة الذكاء الاصطناعي، بما في ذلك الشفافية والعدل والتعاون الذكاء الاصطناعي البشري والخصوصية والأمان والسلامة وتأثير الذكاء الاصطناعي على الأشخاص والمجتمع.
يشارك باحثونا بشكل نشط في المناقشات والمناظرات الأوسع نطاقاً لضمان أن برنامج الذكاء الاصطناعي المسؤول لدينا يدمج وجهات النظر والمدخلات الكبيرة.
تعمل الفرق الهندسية على تحديد الأدوات واستراتيجية النظام وتشغلها لاستخدام الذكاء الاصطناعي بشكل مسؤول.
يعمل قادة الهندسة على تحديد الممارسات الهندسية التي تدمج الذكاء الاصطناعي المسؤول في العمل اليومي وتنفيذها.
تعمل الفرق الهندسية على تنفيذ أدوات الامتثال للمساعدة في مراقبة وتنفيذ قواعد ومتطلبات الذكاء الاصطناعي المسؤولة.
الذكاء الاصطناعي المبادئ هي إرشادات مصممة لضمان التطوير المسؤول لتقنيات الذكاء الاصطناعي ونشرها. تعد هذه المبادئ أساسية لأنها تساعد على تقليل المخاطر، وتعزيز الممارسات السلوكية، وزيادة فوائد الذكاء الاصطناعي للمجتمع.
يتم إنشاء ملاحظات الشفافية لمساعدة العملاء على فهم الأعمال الداخلية لتقنيات الذكاء الاصطناعي بشكل أفضل واتخاذ قرارات أكثر استنارة حول استخدامها. فهي تشكل جزءا من معيار الذكاء الاصطناعي المسؤول، وهي تهدف إلى دعم تطوير الذكاء الاصطناعي المسؤول من خلال توفير نتائج تحليلات حول كيفية إدارة أنظمة الذكاء الاصطناعي وتعيينها وقياسها وإدارتها.
تقدم Microsoft أيضا تقرير الشفافية الذكاء الاصطناعي المسؤولة، الذي يوفر نتائج تحليلات حول كيفية قيام Microsoft بإنشاء تطبيقات باستخدام الذكاء الاصطناعي توليدية، ومراقبة نشر هذه التطبيقات، ودعم العملاء أثناء إنشاء تطبيقاتهم الذكاء الاصطناعي، وتعزيز مجتمع الذكاء الاصطناعي مسؤول.
اكتشاف المزيد
الأدوات والتدريبات
الحصول على أدوات لدعم ممارسات الذكاء الاصطناعي المسؤولة
متابعة Microsoft