Zidentyfikowaliśmy sześć zasad, które według nas powinny kierować opracowywaniem i używaniem sztucznej inteligencji.
Uczciwość
Systemy sztucznej inteligencji powinny traktować wszystkich ludzi w równy sposób. Jak system sztucznej inteligencji może przydzielać możliwości, zasoby lub informacje w sposób, który jest odpowiedni dla ludzi, którzy go używają?
Niezawodność i bezpieczeństwo
Systemy sztucznej inteligencji powinny działać niezawodnie i bezpiecznie. Jak system może działać dobrze w przypadku osób w różnych warunkach i kontekstach użytkowania, w tym dla tych, dla których pierwotnie nie był on przeznaczony?
Prywatność i zabezpieczenia
Systemy sztucznej inteligencji powinny być bezpieczne i uwzględniać prywatność. Jak można zaprojektować system pod kątem wspierania ochrony prywatności i zabezpieczeń?
Inkluzywność
Systemy AI powinny wzmacniać pozycję wszystkich i angażować wszystkich ludzi, niezależnie od ich pochodzenia. Jak można zaprojektować system tak, aby był dostępny dla wszystkich osób o różnych umiejętnościach?
Jawność
Systemy sztucznej inteligencji powinny być zrozumiałe. Jak możemy upewnić się, że ludzie właściwie rozumieją możliwości systemu?
Odpowiedzialność
Użytkownicy powinni być odpowiedzialni za systemy sztucznej inteligencji. Jak możemy stworzyć warunki nadzoru, aby ludzie mogli być odpowiedzialni i pod kontrolą?
Uczciwość
Blog
Uczenie maszynowe na potrzeby trafnego podejmowania decyzji
Wspólne projektowanie list kontrolnych w celu zrozumienia wyzwań i możliwości organizacyjnych związanych z uczciwością w zakresie sztucznej inteligencji
Jak firma Microsoft implementuje odpowiedzialną sztuczną inteligencję
Dowiedz się, jak firma Microsoft umożliwia pracownikom w całej organizacji stanie się orędownikami odpowiedzialnej sztucznej inteligencji.
Ustawiamy reguły wdrażania odpowiedzialnej sztucznej inteligencji oraz jasno definiujemy role i obowiązki dla zaangażowanych zespołów.
Wspieramy gotowość do wdrażania praktyk odpowiedzialnej sztucznej inteligencji zarówno w naszej firmie, jak i u naszych klientów i partnerów.
Sprawdzamy szczególnie wrażliwe przypadki użycia, aby upewnić się, że przestrzegamy naszych zasad odpowiedzialnej sztucznej inteligencji.
Pracujemy nad kształtowaniem nowych praw i standardów, aby zagwarantować, że obietnica dotycząca sztucznej inteligencji zostanie zrealizowana w przypadku całego społeczeństwa.
Naukowcy z komitetu Aether, działu Microsoft Research i naszych zespołów inżynieryjnych utrzymują nasz program OSI w czołówce.
Zespoły prowadzą rygorystyczne badania nad sztuczną inteligencją, w tym nad przejrzystością, sprawiedliwością, współpracą człowieka ze sztuczną inteligencją, prywatnością, bezpieczeństwem oraz wpływem sztucznej inteligencji na ludzi i społeczeństwo.
Nasi naukowcy aktywnie uczestniczą w szerszych dyskusjach i debatach, aby zapewnić, że nasz odpowiedzialny program sztucznej inteligencji uwzględnia szersze perspektywy i wkład.
Zespoły inżynieryjne definiują i wdrażają strategię dotyczącą narzędzi i systemów na potrzeby używania sztucznej inteligencji w sposób odpowiedzialny.
Liderzy ds. inżynierii identyfikują i wdrażają praktyki inżynieryjne, które integrują odpowiedzialną sztuczną w codziennej pracy.
Zespoły ds. inżynierii wdrażają narzędzia zgodności, aby ułatwić monitorowanie i wymuszanie reguł i wymagań dotyczących odpowiedzialnej sztucznej inteligencji.
Zapoznaj się z raportem inauguracyjnym, aby zobaczyć, jak firma Microsoft tworzy odpowiedzialne systemy sztucznej inteligencji, wspiera klientów i rozwija silniejszą społeczność AI.
Zasady AI to wytyczne mające na celu zapewnienie odpowiedzialnego rozwoju i wdrażania technologii sztucznej inteligencji. Te zasady mają kluczowe znaczenie, ponieważ pomagają ograniczać ryzyko, promować etyczne praktyki i maksymalizować korzyści płynące ze sztucznej inteligencji dla społeczeństwa.
Standard odpowiedzialnej sztucznej inteligencji w firmie Microsoft konsoliduje podstawowe praktyki w celu zapewnienia zgodności z nowymi przepisami i regulacjami dotyczącymi sztucznej inteligencji.
Firma Microsoft oferuje szereg narzędzi i praktyk , które pomagają organizacjom w korzystaniu z odpowiedzialnej sztucznej inteligencji.
Uwagi dotyczące jawności są tworzone, aby pomóc klientom lepiej zrozumieć wewnętrzne działanie technologii AI i podejmować bardziej świadome decyzje dotyczące ich wykorzystania. Są one częścią Standardu odpowiedzialnej sztucznej inteligencji i mają na celu wspieranie odpowiedzialnego rozwoju sztucznej inteligencji poprzez zapewnienie analizy tego, w jaki sposób systemy sztucznej inteligencji są zarządzane, mapowane, mierzone i zarządzane.
Firma Microsoft oferuje również raport dotyczący jawności odpowiedzialnej sztucznej inteligencji, który zawiera szczegółowe informacje na temat tego, w jaki sposób firma Microsoft tworzy aplikacje z generatywną AI, nadzoruje wdrażanie tych aplikacji, wspiera klientów podczas tworzenia własnych aplikacji AI i wspiera społeczność odpowiedzialnej sztucznej inteligencji.
Odkryj więcej
Narzędzia i praktyki
Uzyskaj narzędzia do wspierania praktyk dotyczących odpowiedzialnej sztucznej inteligencji
Obserwuj firmę Microsoft