Помните рассуждения о том, что в шахматы-де компьютер обыграл человека грубой вычислительной силой, но с Го такой номер в обозримом будущем не пройдет? Так вот, уходит эпоха-то: http://www.nature.com/news/google-ai-algorithm-masters-ancien...
дабы не впадать в тоску по убитой романтике великой игры, усиленно вспоминаю подцепленную где-то лет пятнадцать назад формулировку «консервный нож одержал убедительную победу над чемпионом мира по открыванию банок голыми руками». ‎- як орбитального выпаса
(впрочем, у этого чемпиона Европы «всего» второй профессиональный дан, в марте AlphaGo будет играть с обладателем девятого; но, как пишет Wiki про профессиональные даны, "difference between these grades is much smaller than with amateurs however, and is not based on the number of handicap stones required") ‎- як орбитального выпаса
Ну вот не грубая сила же. Брутфорсом можно было шашки и с натягом шахматы, а здесь пришлось нейросети, причем сложные "12 different network layers containing millions of neuron-like connections" ‎- ЛЕВАЦКАЯ МРАЗЬ
^ fair point. Но очевидно, что эти тренированные нейросети — всё равно узкоспециализированный консервный нож. Can't write a symphony or turn a canvas into a beautiful masterpiece (впрочем, OHWAI~, у нас есть DeepDream. Но это другой нож). А была еще буквально лет десять назад мода полагать, что игра в Го на профессиональном уровне — непостижимая и недостижимая способность Настоящего Человеческого Разума. ‎- як орбитального выпаса
но она уходит неторопливее чем в шахматах, эпоха-то. Shredder или rybka ещё лет 5 (да какой 5, бери 10) назад рвали мастера спорта по шахматам как нефиг делать, на десктопном железе за 700 баков, а гугловый сетап воспроизвести дома нам ещё долго не светит, если я правильно понял ‎- right wing hug squads
(в шахматах тоже модно не совсем брутфорс, обсуждали немножко — https://mokum.place/denisshipilov/29592 ) ‎- адский хардлайн в засаде
^^ да, сетап их хотя и из доступных компонентов, но... Про обучение сети: """...we just define an epoch as 10,000 mini-batches... we just use vanilla SGD on 4 NVidia K40m GPUs in a single machine to train the entire network (for some models we use 3 GPUs with 255 as the batch size). Each epoch lasts about 5 to 6 hours. The learning rate is initially 0.05 and then divided by 5 when convergence stalls.""" (http://www.thinkmate.com/product/nvidia/900-22081-0040-000) ‎- адский хардлайн в засаде
про грубую силу, кстати, их лучший результат, который соревнуется, работает на DCNN + (потом) монте-карло tree search (и использует уже, кстати, 44 K40!). В future work они пишут охуенные планы — скомбинировать обучение и поиск на ходу! ‎- адский хардлайн в засаде
Да, монте-карлой с поиском лет 5 назад уже го ломали - до неплохого дана прога доросла, без всяких злоебучих нейросетей. UPD: я вот про эту прогу - http://www.smart-games.com/manyfaces.html ‎- BSOD bluez
Ranshe ja volnovolsja izza demograficheskogo upada. No posle togo kak podaril sestre iroomba uzhe ne volnujus. Roboti budut rabotat i za nami ‎- mentegatto
(да, кстати, я мудак, ошибся и читал фейсбуковую статью —http://arxiv.org/pdf/1511.06410.pdf, а не гугловую — https://storage.googleapis.com/deepmind-data/assets/papers/de... — они похожие* схемы использывает, но гугловая лучше) ‎- адский хардлайн в засаде