User avatar

#нейрочего Почитал про software 2.0: https://medium.com/@karpathy/software-2-0-a64152b37c35. И думаю вот (не мешки же ворочать):

Comment

у меня вообще сложные отношения с ентим вашим deep learning'ом. Ссылка, напр: https://mokum.place/zverok/13579 («почему мне тяжело с ним»). Ссылка²: https://mokum.place/zverok/99348 (думаю про пост ailev «нейросетки вместо учёных», есть кстати ответ автора: https://freefeed.net/ailev/2c25d251-95f6-4d25-beca-0ca260f25e7c

 ‎· просто варежка
Comment

(Норвиг, Хомский, блаблабла)

 ‎· просто варежка
Comment

Если посмотреть (скажем, в той же статье про 2.0) где нейросетка молодец — это в широком смысле «перевод»: текста с языка на язык, речи в текст и текста в речь, визуального в «текст» (список образов), да?.. Тут возникают многие понятные оговорки (см. напр. https://mokum.place/newtover/1637503) про то что это области где есть «параллельные корпуса», должным образом оцифрованные; есть более-менее определённый критерий успеха (даже если он «на зубок» — «перевод понятный и соответствует смыслу оригинала»).

 ‎· просто варежка
Comment

Если повернуть голову ещё на несколько градусов (и добавить не укладывающиеся в предыдущее описание «игры по правилам» — шахматы/го), то нейросетки в общем-то занимаются «распознаванием и генерацией образов» и больше ничем. И превосходят в этом людей. То есть выиграть в го — это «распознать образ» некоей ситуации и «сгенерировать образ» её возможного развития.

 ‎· просто варежка
Comment

Дальше: у меня есть Мысль, которую я уже довольно давно думаю: что у нас (человечества) в некотором смысле уже «достаточно» данных, но бесконечно недостаточно их организации. (Для чего «достаточно»/«недостаточно»?.. Скажем, «для всего».)

 ‎· просто варежка
Comment

Дальше: у меня есть ещё другая Мысль, что в принципе человеческая интеллектуальная деятельность (в любой области) сводится к _пониманию_ и _объяснению_. Всё остальное вполне механично и автоматизируемо уже давно, просто руки не дошли.

 ‎· просто варежка
Comment

Но, now it clicks: «понимание и объяснение» — это же «распознавание и генерация образов», явно же то же самое?..

 ‎· просто варежка 1
Comment

То есть: нейросетка может понимать и объяснять лучше людей. Если её научить. Хм. Дать ей достаточно ввода для того чтобы было что понимать. И достаточно «примеров вывода». То есть, например, «научившись» играть в Го, нейросетка «видит» более крутые стратегии, которые человек охватить не может (а не только комбинирует «статистически самые удачные ходы за историю игр»). То есть регистрирует такие паттерны, на которые у человека «ума не хватает». То есть делает то что делают гениальные учёные, нет?..

 ‎· просто варежка
Comment

(Или, скажем, прилично обученная «распознавалка образов» же не только «узнает то что уже видела», но и ммм в марсианской пыли узнает трёхсантиметрового пятиногого ящерокоалу в маскировочной раскраске, двигающегося раз в час на полмиллиметра, почему нет?..)

 ‎· просто варежка
Comment

Ещё вот у меня странный пример в голове: в принципе, учитывая что в фейсбуке в пределе «всё человечество», показывать мне записи «интеллектуально», а не «всё новое» — не такая плохая идея. Просто интеллект у него глупенький. Но «тонкие настройки» (как в Мокуме) не будут работать на Фейсбучных масштабах подписок, нет экрана который вместит столько количества настроек (да и не пойду я на тот экран), которые _на самом деле нужны_ — что вот Маша лучший дружочек и все её апдейты и даже комменты в чужих постах мне интересны, а лайкает она по миллиарду постов в день, это не надо; а Петя интересный мне сейчас мыслитель и комментирует крутые посты умными мыслями и лайкает сложное, зато у себя самого постит только фоточки лабрадоров, нуегонах; а Василий охуенный, но пишет по 20-40 постов в день, можно мне их каким-то дайджестом и так далее и так далее. Может идеальный небесный фейсбук и рад бы так сделать, но у него недостаточно инпута «а как ты хочешь». Он может быть и _может_ понять, но как ему объяснить?.. (Может, «поговорить» с ним человеческим языком?.. Хм.)

 ‎· просто варежка 6
Comment

Ещё: очевидно же, что развитие UI зашло в тупик давно примерно таким же образом: вам больше настроек или меньше настроек? Может никаких настроек и мы всё угадали? А может «как хочет русский, Розочка не может»? А может вам дашборд со всеми данными не хотите ли?.. Как «не хватает ещё 20 графиков», куда я их засуну? (Отсюда попытка bots uprising, но боты те тупыыыые.) Где наконец уже кнопка «сделать заебись»?

 ‎· просто варежка 1
Comment

Так вот (всё, уже «выводы»): я вот думаю, может ли оказаться так, что нейросетки (или что-то следующее за ними в ту же сторону) — таки Software 2.0, а наша, человеческая/программистская цель — разработка критериев и форматов? (я тут сначала написал «подготовка и оцифровка всех возможных данных», но потом понял что и это они сделают сами, если будет для этих данных _источник_ и _формат_; тут конечно можно укусить себя за хвост и сказать что пусть формат сами придумывают, но...) Иными словами, нужно «всего лишь» оцифровать знание о том, какими бывают интересные нам разгадки, дать все данные, и подождать. (Кстати, создатели Deep Thought со своим Главным Вопросом погорели именно на первом шаге.)

 ‎· просто варежка 1
Comment

@zverok: ^^^ "как ему объяснить" — по идее, данных уже достаточно, просто сам лайкаешь, что нравится, а что не нравится — не лайкаешь. Как раз такого рода взаимосвязи как "то что комментит маша" и "то что лайкает василий" нейросетка должна легко схватывать.

 ‎· sober, steady, good provider
Comment

@markizko: так в том и дело что (для меня по крайней мере) «лайк» это очень куцый сигнал. пользуясь им как способом фидбека машине, чувствуешь себя крайне глупо (потому что эээ «лучших друзей» каждый пост теперь лайкать просто чтобы сказать фейсбуку «не убирай это из моей ленты никогда»? это какой-то странный вариант машинного обучения, в котором машина обучает обезьянку). собственно об этом и есть моё «они бы может и хотели, но нет формата представления/способа коммуникации этих данных»

 ‎· просто варежка 2
Comment

@zverok: а в фб нет персонального хайда, как в вк? Тоже сигнал. С другой стороны, пост тебе интересен, а ты его не полайкал, непорядок!

 ‎· sober, steady, good provider
Comment

@markizko: есть. но я немношко не об этом.

 ‎· просто варежка
Comment

@zverok: да, в этом как раз бонус AlphaGoZero — он может учится сам против себя, ему не нужен арбитр. Впрочем, об этом тут уже писали.

 ‎· irrelevant evil
Comment

не стоит забывать, что лайки - это не единственный сигнал. гораздо более мощный сигнал - то, где ты пристановился пролистывая, где комментарии развернул, где по ссылке перешел в процессе чтения. но если это все нормально обсчитать и прямо сейчас на людей выплеснуть, очень многим станет страшно.

 ‎· лопата учёных из Омска
Comment

но, повторюсь, самая главная пробема, по моему мнению, - как протестировать, что глубокое обучение наварило именно то, что надо, потому что всё так или иначе сводится к минимизации функции ошибки, а для этого функция ошибки должна быть четко определена.

 ‎· лопата учёных из Омска
Comment

^ https://github.com/marcotcr/lime

 ‎· ridiculous crowdfunded nonsense 1
Comment

@denisshipilov: проект интересный, но как он относится к моему комментарию?

 ‎· лопата учёных из Омска
Comment

ну там как раз цель объяснять почему черный ящик глубокого обучения наварил то что наварил

 ‎· ridiculous crowdfunded nonsense
Comment

@denisshipilov: я сомневаюсь, что для рекуррентной сетки с lstm-блоками, которой на вход подаются вектора из многомерного пространства вместо слов, можно хорошо что-то наинтерпретировать.

 ‎· лопата учёных из Омска
Comment

"This project is about explaining what machine learning classifiers (or models) are doing." - про рекуррентные сети речь не идет

 ‎· ridiculous crowdfunded nonsense
Comment

@denisshipilov: черный ящик глубокого обучения сейчас может иметь не самую тривиальную архитектуру

 ‎· лопата учёных из Омска
Comment

@newtover: вообще я не вчитывался, но на GitXiv и такого рода местах «объяснялки» чёрных ящиков сейчас раз в пару дней пробегают разные. но я не понимаю, может быть это «в принципе нерешаемый вопрос» (интуитивно кажется, что всё же нет, решаемый)

 ‎· просто варежка
Comment

@zverok: если огрубить, то каждый нейрон, конечно, характеризуется весами входящих связей и фукцией активации, которая обычно сигмойд. в случае распознавания чего-то на картинке - нейрон где-то на скрытом слое становится фичей на этом слое и в этом случае характеризует какую-то маску и активируется, если маска в картинке присутствует, поэтому можно попробовать такие маски нарисовать. для других нейронных сетей тоже можно попробовать прогнать тренировочный корпус через готовую модель, наблюдая при этом за кактивацией конкретного нейрона. Так можно отобрать случаи, когда нейрон активируется и попытаться объяснить, что за фактор представляет этот нейрон. Но далеко не факт, что интерпретироваиься он будет понятным образом. более того, может оказаться, что мы неверно интерпретируем, что важно, а что - не очень.

 ‎· лопата учёных из Омска
Comment

@newtover: да, я это всё понимаю (я всё уже перезабыл, но когда-то в общем работал с нейросетками за деньги — тогдашними нейросетками 2003-го и за тогдашние же деньги, но всё же). но мне всё же идеалистически представляется, что когда паттерн «опознан» (ну, грубо говоря, придумана новая стратегия игры в Го), его можно (должно быть можно) какими-то автоматизированными средствами «отрендерить» в объяснение. извините за снижение уровня дискуссии :(

 ‎· просто варежка
Comment

вообще кажется задача «объяснить что она себе надумала» — автореферентна. надо из массива входных данных (весов нейронов) распознать паттерн и сгенерировать его репрезентацию в человекочитаемом формате. вероятно, тыщи людей этим занимаются прямо сейчас.

 ‎· просто варежка
Comment

@zverok: стоить отметить, что машинное обучение не придумывает новые стратегии: оно аппроксимирует входные данные так, чтобы на выходе получить ожидаемую циферку или несколько. То есть оно достает частое в уже имеющемся и отбрасывает более редкое. Но вообще я тоже не настоящий сварщик, а просто на кухне умных людей подслушал. И тоже надеюсь, что хотя бы часть внутреннего состояния модели можно интерпретировать.

 ‎· лопата учёных из Омска
Comment

@newtover: да, я это понимаю. но мой (недостаточно образованный и излишне поэтический) ум это дело поворачивает так, что хорошо натренированная нейросеть может распознать образ (в широком смысле, включая «образ описывающий текущую ситуацию в го») в «слишком сложных» для человека данных. да, этот образ будет описываться например координатами одной точки в многомерном пространстве описаний; но человек бы эту точку не нашёл.

 ‎· просто варежка
Comment

@newtover "машинное обучение не придумывает новые стратегии: оно аппроксимирует входные данные" — зависит от метода машинного обучения: некоторые действительно такие, но некоторые вполне могут, в принципе, достичь любой пункт в пространстве поиска. Например генетические алгоритмы. Просто нынче популярна Big Data, и поэтому (чрезмерно) популярны методы именно аппроксимации входных данных.

 ‎· Taivo Lints 1

1 2 3 4 5 6 7 8 9 10