Nustatėme šešis principus, kurie, mūsų manymu, turėtų padėti kurti ir naudoti dirbtinį intelektą.
Sąžiningumas
Dirbtinio intelekto sistemos turėtų su visais žmonėmis elgtis teisingai. Kaip dirbtinio intelekto sistema gali paskirstyti galimybes, išteklius ar informaciją tokiu būdu, kuris būtų teisingas ją naudojančių žmonių atžvilgiu?
Patikimumas ir sauga
Dirbtinio intelekto sistemos turėtų veikti patikimai ir saugiai. Kaip sistema galėtų gerai veikti žmonėms su skirtingomis naudojimo sąlygomis ir kontekstais, įskaitant tuos, kuriems ji iš pradžių nebuvo skirta?
Privatumas ir sauga
Dirbtinio intelekto sistemos turėtų būti saugios ir gerbti privatumą. Kaip sistema gali būti sukurta siekiant palaikyti privatumą ir saugą?
Įtrauktis
Dirbtinio intelekto sistemos turėtų suteikti galimybę visiems ir įtraukti visus žmones, neatsižvelgiant į jų kilmę. Kaip sistema gali būti sukurta taip, kad į ją būtų įtraukti visų gebėjimų žmonės?
Skaidrumas
Dirbtinio intelekto sistemos turėtų būti suprantamos. Kaip užtikrinti, kad žmonės tinkamai suprastų sistemos galimybes?
Atsakingumas
Žmonės turėtų būti atsakingi už dirbtinio intelekto sistemas. Kaip galime sukurti priežiūrą, kad žmonės galėtų būti atsakingi ir kontroliuoti?
Sąžiningumas
Tinklaraštis
Mašininis mokymas, skirtas sąžiningiems sprendimams
Kaip „Microsoft“ pritaiko atsakingą dirbtinio intelekto naudojimą
Sužinokite, kaip „Microsoft“ suteikia visos organizacijos darbuotojams galimybę būti atsakingo dirbtinio intelekto naudojimo čempionais.
Nustatėme taisykles, skirtas atsakingam dirbtinio intelekto naudojimui nustatyti ir aiškiai apibrėžti susijusių komandų vaidmenis bei pareigas.
Skatiname pasirengimą taikyti atsakingo dirbtinio intelekto naudojimo praktikas tiek įmonėje, tiek su klientais ir partneriais.
Peržiūrime slapto naudojimo atvejus, siekdami užtikrinti, kad laikysimės savo atsakingo dirbtinio intelekto naudojimo principų.
Siekiame formuoti naujus įstatymus ir standartus, kad užtikrintume, jog dirbtinio intelekto pažadas yra realizuojamas plačiai visuomenei.
Tyrėjai Iš „Aether“, „Microsoft“ tyrimų ir mūsų inžinierių komandos išlaiko mūsų atsakingo dirbtinio intelekto naudojimo programą priekyje.
„Teams“ vykdo griežtus dirbtinio intelekto tyrimus, įskaitant skaidrumo, sąžiningumo, žmogaus ir dirbtinio intelekto bendradarbiavimo, privatumo, saugos, saugumo ir DI poveikio žmonėms ir visuomenei srityse.
Mūsų tyrėjai aktyviai dalyvauja platesnio masto diskusijose ir debatuose, siekdami užtikrinti, kad mūsų atsakingo dirbtinio intelekto naudojimo programa integruotų didelio vaizdo perspektyvas ir įvestį.
Inžinierių komandos apibrėžia ir įgyvendina įrankių ir sistemos strategiją, skirtą naudoti dirbtinį intelektą atsakingai.
Inžinierių vadovai nustato ir taiko inžinerines praktikas, kurios integruoja atsakingo dirbtinio intelekto naudojimą į kasdienį darbą.
Inžinierių komandos taiko atitikties užtikrinimo įrankius, kad padėtų stebėti ir vykdyti atsakingo dirbtinio intelekto naudojimo taisykles ir reikalavimus.
Peržiūrėkite įžanginę ataskaitą ir sužinokite, kaip „Microsoft“ kuria atsakingo dirbtinio intelekto naudojimo sistemas, palaiko klientus ir plečia stipresnę DI bendruomenę.
Dirbtinio intelekto principai yra gairės, skirtos užtikrinti tinkamą dirbtinio intelekto technologijų kūrimą ir diegimą. Šie principai yra labai svarbūs, nes jie padeda sumažinti riziką, skatinti etiškas praktikas ir maksimaliai padidinti DI naudą visuomenei.
Skaidrumo pastabos kuriamos siekiant padėti klientams geriau suprasti vidinius DI technologijų veiksmus ir priimti geriau pagrįstus sprendimus dėl jų naudojimo. Jie yra atsakingo dirbtinio intelekto naudojimo standarto dalis ir yra skirti palaikyti atsakingo dirbtinio intelekto naudojimo kūrimą pateikdami įžvalgų apie tai, kaip dirbtinio intelekto sistemos yra tvarkomos, susietos, įvertintos ir valdomos.
„Microsoft“ taip pat siūlo Atsakingo dirbtinio intelekto naudojimo skaidrumo ataskaitą, kurioje pateikiama įžvalgų apie tai, kaip „Microsoft“ kuria programas naudodama generuojamąjį dirbtinį intelektą, prižiūri šių programų diegimą, palaiko klientus, kai jie kuria savo dirbtinio intelekto programas, ir skatina atsakingo dirbtinio intelekto naudojimo bendruomenę.
Sužinokite daugiau
Įrankiai ir praktikos
Gaukite įrankius, skirtus atsakingo dirbtinio intelekto naudojimo praktikoms palaikyti
Stebėkite „Microsoft“