Головна Новини

Майкрософт анонсує інструмент запобігання упередженості штучного інтелекту

Майкрософт анонсує інструмент запобігання упередженості штучного інтелекту
Emily Cho
Майкрософт хоче створити інструмент, який буде виявляти та попереджувати людей про алгоритми ШІ, які можуть ставитися до них в залежності від їх раси або статі.

Microsoft - це новітня технологічна компанія, яка спробує усунути алгоритмічне зміщення, тобто штучний інтелект, який годується субпараметріческімі даними і став відображати власні забобони або несправедливі перспективи суспільства. Згідно із заявою MIT Technology Review, компанія хоче створити інструмент, який буде виявляти і попереджувати людей про алгоритми ШІ, які можуть розглядати їх в залежності від їх раси або статі.

Чудово, що Microsoft, яка рекламує себе як компанію, яка створює ШІ для об'єднання людей, приєднується до лав Google і Facebook, щоб створити якийсь інструмент для пошуку неналежного навчання ШІ. Але новий алгоритм Microsoft для пошуку упереджених алгоритмів може виявляти і фіксувати існуючі проблеми. Це означає, що програми, які можуть привести до посилення забобонів в поліції, наприклад, будуть як і раніше будуватися і використовуватися, можливо, не так довго, як якщо б вони були, якби не були виявлені.

Щоб дійсно створити ШІ, який справедливий і приносить користь кожному, необхідно більше уваги приділяти переднього кінця. Одним з можливих способів охоплення компаній їх базами є проведення незалежної аудиторської перевірки, коли технічна компанія залучає зовнішнього експерта для аналізу своїх алгоритмів і пошуку ознак упередженості або в самому коді, або в даних, які йому подаються.

Ідея ревізії штучного інтелекту, згадана в статті «Огляд технологій MIT», набула сили в інших місцях, і деякі компанії ШІ почали залучати аудиторів, щоб поглянути на їх код. Але це також вимагає, щоб ШІ був досить простим, щоб хтось міг ходити і виявляти проблемні області, або аудитор добре розбирався в коді. Для більш складних алгоритмів глибокого навчання це може бути не завжди можливо.

Ще один можливий відповідь - це найкраще навчання людей, які фактично створюють ШІ, щоб вони могли краще визначити свої власні думки і забобони і не дати їм інтерпретувати алгоритм як факт. Це не означає, що кодери збираються програмувати расистські машини. Але, оскільки у всіх є якісь неявні упередження, світ технологій виграє від того, щоб допомогти людям краще зрозуміти свої світогляду.

Це основні рішення, для яких потрібно зміна ставлення до способу розробки технологій навіть в компаніях, які хочуть розробити ці фільтри і прапори для упереджених алгоритмів. У той же час, це хороший знак того, що дослідники і компанії починають звертати увагу на проблему.

Джерела: МТІ, Майкрософт

Автор: Ден Робітцкі
Читайте також:
putin-khuylo
Вакцинуйся!
ОСТАННІ КОМЕНТАРІ