May 31st, 2018

tree

Хорошо написано про матч игры в Го между чемпионом и машиной

https://palaman.livejournal.com/371918.html

"...Ли уже проиграл матч, но в четвертой игре у него новая цель - выиграть хотя бы один раз..."

"Важно не то, что ИИ DeepMind может научиться побеждать в игре Го, а в опасности, что он может научиться побеждать во всем, что угодно. Возможности применения этих революционных достижений в машинном обучении - в неожиданной способности машин имитировать человеческое творчество и интуицию."

На самом деле, пока что не решена самая трудная задача - как ориентироваться в реальном мире. Машина победила в формализованном игровом мире, который точно и полностью описан. Для реального мира полного формализованного описания нет. В нём в любой момент может возникнуть что-то, неучтённое ранее, "не по правилам". И на таких задачах ИИ человека не победил.
tree

Про "этические задачи" с вагонеткой

https://ivanov-petrov.livejournal.com/2131331.html

"...Если этот бред воспринимать как задачу по этике, решение звучит так: нельзя принимать навязанную (условиями задачи) структуру выбора, следует спасти всех... Они решаются на практике именно потому, что там надо в условиях недостаточного времени, средств и сил все же сломать навязанную обстоятельствами структуру выбора и не выбирать, а создать то, чего нет, и спасти тех, кого считаешь нужным.

Можно проверить. Критерий правильности решения этической задачи - отсутствие боли совести. Если человек зарежет одного, чтобы жили пятеро, то у этически вменяемого человека будет болеть совесть. Задача решена неверно. Еще раз: этическое решение состоит не в выборе из предложенных возможностей, а в создании новой структуры выбора.

Конечно, всех спасти обычно не удается, и это другая трудность задач по этике - они не решаются.

Но это единственно возможная форма их существования. Все прочее - какие-то глупости с намеками про экономику и психологию."