Вот эта штука меня восхищяет: https://habrahabr.ru/post/275913/ — при том что опасно близка к machine learning, который наоборот, раздражает (https://mokum.place/zverok/13579)
По ссылке, TLDR: берём кучу пирожков (https://ru.wikipedia.org/wiki/Пирожок_(поэзия)), берём простую математическую модель тематической близости слов, задаём слово — получаем пирожки на тему «музыка» (но не содержащие самого этого слова). ‎- новомодная имитация мышления
С одной стороны, выглядит как адская магия и Искусственный Интеллект. С другой стороны, там простая математика и понятно откуда взялась. С третьей — как нелюбимый мной machine learning требует «тренировки» (в алгоритм сначала загоняется весь РусКорпус, и на его основе считается тематическая близость слов). С четвёртой стороны — я понимаю, что эта т.н. «тренировка» — всего лишь предварительное вычисление полезной статистики на основании существующих данных, по простым формулам. С пятой стороны — может и весь machine learning так устроен и его можно просто «понять» и смириться?.. ‎- новомодная имитация мышления
(С шестой — в посте по ссылке я пишу «Я бы хотел понять модель морофологии, синтаксиса и семантики русского языка и запрограммировать её, а потом модель морфологии, синтаксиса и семантики английского, а потом модель преобразования одного в другое (я знаю, что всё это virtually impossible, спасибо) — такую, чтобы я на каждом этапе чотко понимал как именно предметная область превратилась в такие вот объекты и свойства, и как эти объекты и свойства преобразуются в другие» — но в данном-то случае у «формулы» word2vec никакого понимания нету, это чистой воды те самые статистически тренированные чёрные ящики...) ‎- новомодная имитация мышления
я позволю себе заметить, что по-моему тут дело в разнице между тнз простыми моделями и тнз реальным миром. Вследствие которой даже очень простые чатботы дают неплохую иллюзию понимания, а NLP в целом работает хуевенько до сих пор ‎- лицо не владеющее языком
кстати, может быть, да. ‎- новомодная имитация мышления