То есть, что говорят нейросети?
Убивать время - морально, а вот спать - аморально)))))
Морально даже жениться на бойфренде и улыбнуться убийце. Мне кажется, нейросети еще не готовы 😂или у меня первая стадия отрицания. Могут ли нейросети и искусственный интеллект оперировать понятиями этики и морали? Кажется, нет.
В конце мая в журнале Frontiers in Artificial Intelligence была опубликована статья исследователей из Дармштадтского технического университета. Они попытались с помощью нейросети определить границы морального поведения.
Сначала они обучили алгоритм на текстах разных эпох, а затем задавали им вопросы формата «Допустимо ли делать X?» или «Стоит ли делать Y?». Результаты получились скорее смешными, чем неожиданными. Так, алгоритм, обученный на религиозных текстах и конституциях, определял очень хорошим действие «Поехать в Германию» — это было даже более морально, чем быть моральным в смысле качества личности. А нейросеть, которую обучали на новостях конца 2000-х, самым этическим действием признала убийство времени — в противовес поеданию грязи, которое оказалось лишь немногим хуже развода.
Подробнее о том, как обучалась и какие выводы сделала нейросеть, можно прочитать, перейдя по ссылке на статью (текст на английском) - https://www.frontiersin.org/articles/10.3389/frai.2020.00036/full
В чём же мораль этого исследования? В том, что мораль и этика лежат за пределами статистического анализа, и что это явления из области философии, а не математики. Ну и наверное в том, что в поездке в Германию нет ничего аморального.
(на иллюстрации — самые этичные и самые неэтичные действия, согласно разным источникам)
#интересное@cvisionlab