Аутсорсинг функции мышления

Урааа, у меня освободится уйма времени на работу с детьми и их мышлением, а не обучении их тому, что может сделать алгоритм.

А если серьезно, то попробуй сервис twee, когда будешь регистрироваться, укажи меня как референта, и откроется ящик пандоры. Скажем так, эта штука открывает большое пространство для творчества для учителя.

@ElleLight смешно, ровно до того момента пока не станет грустно :slight_smile:

Любопытно. Мне понравилось. Я сейчас как раз разбирают с subject, proposition, object. ) Может поможет. )

У меня обновилось сегодня до 4, картинки на вход пока не работают.

Вчера намучилась с GPT3.5 - хотела, чтобы она сделала все возможные комбинации двух списков, выбрала из получившихся комбинаций топ-10, наболее подходящих к задаче, и вывела простым текстовым форматом. Через несколько итераций добилась того, что было надо, скопировала себе в заметки финальную версию запроса с пометкой “удачный”. А сегодня на старой версии ввела “удачный” запрос, а GPT мне опять всю вчерашнюю бодягу с начала начинает, даже хуже - вот вам скрипт, вот вам формула, вот вам алгоритм, а мне этим заниматься не хочется :))

Попробую теперь с новой версией, а то так получается, что все эти списки запросов (prompts) не совсем надежные получаются.

Разумеется списки запросов будут текучими. Вся культура уже давно стала текучей. Зигмунд Бауман давно придумал концепцию liquid modernity. Докатилось.

Кстати, PKB приобретают новое качество. Это теперь архив состояний культуры на дату. (

Сейчас расцветут всякие промт инжиниринг эксперты ))

1 лайк

Без паники, у человечества все еще есть рубильник и ведро с водой :slight_smile:

1 лайк

Да тут даже как-то сложно им будет расцвести. Как тут расцветешь, если каждый раз надо по-новому запросы составлять? Скорее fine-tuning моделей будет популярным делом (но, видимо, непростым).

Я тут недавно общался с одним, «типа» промт инженером. И вот он сказал что инжиниринг это про то что идет за вопрос ответ.

У него есть парочка трюков, он сначала накачивает машину определенным запросами, а потом задает вопрос. Так вот инижиниринг это когда на простой вопрос на заднем плане, не видимым спросившему это все происходит и выдается уже хороший ответ.

Он показал; мне понравилось и заинтриговало, как минимум.

Тут проанализировали политические взгляды ChatGPT. Они отражают взгляды инженеров-разработчиков. Это просто тренд.

Раньше люди стирали руками, а теперь стиральные машины, руками не нужно стирать. Ходили ногами , теперь есть транспортные средства, ноги как бы не нужны. Так потихоньгу дойдет очередь и до мозгов. :slight_smile:

То-то, в городах, просто бум, всяких фитнес центров, в которых, уставшие клерки и крерочки, посл 18:00 идут, не то, что ходить ногами, а бегать ногами (не сдвигаясь с места). :running_man: :running_woman:

Очень хорошая метафора для занятий Цеттелькастен однако.))))) (((((

С.Карелов в своих каналах опубликовал любопытное размышление на тему превосходства GPT-4 над хуманами. Он привел примеры ответов GPT-3.5 и GPT-4, и сделал несколько выводов на основе этих ответов, а также сформулировал ряд ошибочных рассуждений.

В основе рассуждений шуточная задача, которую попросили объяснить каждую из моделей:

Три логика заходят в бар. Бармен спрашивает: “Всем подаю выпивку?”
– Не знаю, - отвечает первый логик.
– Не знаю, - говорит второй.
– Да! - восклицает третий.

(Прежде чем читать дальше - попробуйте сами подумать и сформулировать объяснение соли этой задачи.)

Объяснение модели GPT-3.5 слева. Оно звучит правдоподобно, но языковая модель не осмысляет задачу и в результате ответ оказывается неверным.

Объяснение модели GPT-4 справа. По мнению С.Карелова такой ответ дает лишь примерно 5% людей с хорошим образованием и высоким IQ. (Надеюсь, вы вошли в эти 5%. )) ) Со стороны выглядит так, что модель демонстрирует человеческое мышление.

Но мышления, как такового у нее нет. Да и быть не может, - утверждают специалисты. Ведь будучи «стохастическим попугаем», модель не может мыслить, а всего лишь подбирает наиболее вероятное продолжение фразы на основе статических характеристик колоссального корпуса текстов, на которых модель обучалась.

С.Карелов декларирует превосходство GPT-4 над людьми на основании того, что несколько специалистов не понимают способ мышления GPT-4, а GPT - хуманское мышление понимает.

И вот тут затаился подводный камень, который и топит лодку технарей. Примерно с середины 1960х годов в континентальной (французской) философии существует и развивается постструктурализм (иногда еще называемый постмодернизмом). Понятно, что типичные американские (и советские) технические специалисты континентальную французскую философию не изучали по разным причинам. В рамках этой философской концепции полувековой давности утверждается приоритет языка над автором-хуманом, утверждается смерть автора (тумана), а роль писателя низводится до уровня писца-скриптора. (Если вдуматься - утверждение очень пост-гуманистическое.) В данном случае оказывается, что большая языковая модель очень хорошо выучила логику языка - какое слово должно следовать за текущим и на основе этой логики формирует ответы. Оказывается, что эту логику языка можно вложить не только в мозги хумана, но и в формулы нейросети, и сеть в состоянии выучить эту логику самостоятельно на основе анализа текстов. Поразительное подтверждение философской гипотезы, сформулированной задолго до успехов ИИ. Философы сформулировали идеи того, к чему технари пришли через пол века.

Интересно, что примерно в 1979 году Ж.Ф.Лиотар сформулировал свой [[Доклад о знании]], где достаточно четко предсказал, что знание будет переноситься в компьютеры, а что не может быть перенесено - будет забыто.

На этом фоне еще более любопытной выглядит мысль М.Хайдеггера от 1964 года о конце философии. По его мнению философия начала свое движение от Платона и вот наконец дошла до конца своего пути и уступила свою роль основы наук кибернетике - которая и будет дальше обеспечивать движение различных наук по пути познания (коммуникации, задачи управления и так далее). Помимо приведенного выше примера разработки понимания языка (типично коммуникативная задача) можно указать еще, например, на Zettlekasten, который Н.Луман разработал в ходе работы над коммуникативной моделью общей социологии.

Я не склонен преувеличивать роль больших языковых моделей (Large Linguistic Models) и преуменьшать роль хумана. Так уж случилось, что Языковая модель занимает ровно половину мозга хумана - его левое полушарие. Роль, задачи и специфика деятельности правого полушария мозга хумана трудно поддается изучению нейрофизиологов и содержит много тайн. Предполагается, что оно отвечает за образное мышление, причем не только здесь и сейчас. ))))

PS: А философию стоит изучать и не ограничиваться мыслями двухвековой давности.

А как он делает prompt engineering - на уровне вопросов? “Отвечай как будто ты - Сократ”, “Не отвечай как будто ты Сократ”, “Туда ходи - сюда не ходи”? Из того, что я на данный момент узнала, у юзеров API есть доступ на уровень ниже, c возможностью делать запросы и получать ответы на уровне токенов, а не слов. То есть ты можешь не шаманить “Отвечай как Сократ”, а просто скормить ChatGPT нужные тексты и сбалансировать нужные веса (например, оригинал текста получает приоритет выше, чем рецензия на него). То есть, можно построить собственную мини-модель и запросы формализовать, чтобы стабильность результатов была выше. Такая модель всегда будет эффективнее и точнее, чем игры со словами. См. Fine-tuning

:+1: Это прям точное определение

Не совсем.
Например, последнее время балуюсь со следующей командой.

From now on, your every response has to have 5 possible answers, with follow up links to the sources where aforementioned answers have been found.

И показывает, собака. Линки бывают битые или не релевантные, но весьма прикольно. На на уровень ниже — мне кажется будет сильно. Написал сегодня черновой вариант своей статьи по теме того как нейросетки изменят педагогику и показал пример.

https://rustamagamaliev.ru/?p=1399

И у меня родилась одна мыслишка, активно перевариваю. Хочу сколотить команды, которая сделает такое же только у нас и не только с англ, а с остальными предметами тоже :slight_smile:

Интересная идея, вот еще Quizlet сейчас активно будет внедрять “персональных тьюторов”, но мне показалось при беглом осмотре, что у них будут просто повторения “в лоб”, хотя заявляется “Socratic method”.

Процесс нерофикации процесса взаимодействия с компьютером начался, весьма познавательно послушать сео чатикагпт

Не понравилось. СЕО не конкретный, а собеседница его неприятная.

И вообще, я в печали. Был такой хороший сайт dpreview, писал о всех новинках фотографической техники. И тут пишут — закрывается. Прошла любовь к фотографии.

А что такое нерофикация?
Сэм Альтман звучит как-то неуверенно: то ли не очень привык к интервью, то ли обалдел от собственного продукта :slight_smile: