С.Карелов в своих каналах опубликовал любопытное размышление на тему превосходства GPT-4 над хуманами. Он привел примеры ответов GPT-3.5 и GPT-4, и сделал несколько выводов на основе этих ответов, а также сформулировал ряд ошибочных рассуждений.
В основе рассуждений шуточная задача, которую попросили объяснить каждую из моделей:
Три логика заходят в бар. Бармен спрашивает: “Всем подаю выпивку?”
– Не знаю, - отвечает первый логик.
– Не знаю, - говорит второй.
– Да! - восклицает третий.
(Прежде чем читать дальше - попробуйте сами подумать и сформулировать объяснение соли этой задачи.)
Объяснение модели GPT-3.5 слева. Оно звучит правдоподобно, но языковая модель не осмысляет задачу и в результате ответ оказывается неверным.
Объяснение модели GPT-4 справа. По мнению С.Карелова такой ответ дает лишь примерно 5% людей с хорошим образованием и высоким IQ. (Надеюсь, вы вошли в эти 5%. )) ) Со стороны выглядит так, что модель демонстрирует человеческое мышление.
Но мышления, как такового у нее нет. Да и быть не может, - утверждают специалисты. Ведь будучи «стохастическим попугаем», модель не может мыслить, а всего лишь подбирает наиболее вероятное продолжение фразы на основе статических характеристик колоссального корпуса текстов, на которых модель обучалась.
С.Карелов декларирует превосходство GPT-4 над людьми на основании того, что несколько специалистов не понимают способ мышления GPT-4, а GPT - хуманское мышление понимает.
И вот тут затаился подводный камень, который и топит лодку технарей. Примерно с середины 1960х годов в континентальной (французской) философии существует и развивается постструктурализм (иногда еще называемый постмодернизмом). Понятно, что типичные американские (и советские) технические специалисты континентальную французскую философию не изучали по разным причинам. В рамках этой философской концепции полувековой давности утверждается приоритет языка над автором-хуманом, утверждается смерть автора (тумана), а роль писателя низводится до уровня писца-скриптора. (Если вдуматься - утверждение очень пост-гуманистическое.) В данном случае оказывается, что большая языковая модель очень хорошо выучила логику языка - какое слово должно следовать за текущим и на основе этой логики формирует ответы. Оказывается, что эту логику языка можно вложить не только в мозги хумана, но и в формулы нейросети, и сеть в состоянии выучить эту логику самостоятельно на основе анализа текстов. Поразительное подтверждение философской гипотезы, сформулированной задолго до успехов ИИ. Философы сформулировали идеи того, к чему технари пришли через пол века.
Интересно, что примерно в 1979 году Ж.Ф.Лиотар сформулировал свой [[Доклад о знании]], где достаточно четко предсказал, что знание будет переноситься в компьютеры, а что не может быть перенесено - будет забыто.
На этом фоне еще более любопытной выглядит мысль М.Хайдеггера от 1964 года о конце философии. По его мнению философия начала свое движение от Платона и вот наконец дошла до конца своего пути и уступила свою роль основы наук кибернетике - которая и будет дальше обеспечивать движение различных наук по пути познания (коммуникации, задачи управления и так далее). Помимо приведенного выше примера разработки понимания языка (типично коммуникативная задача) можно указать еще, например, на Zettlekasten, который Н.Луман разработал в ходе работы над коммуникативной моделью общей социологии.
Я не склонен преувеличивать роль больших языковых моделей (Large Linguistic Models) и преуменьшать роль хумана. Так уж случилось, что Языковая модель занимает ровно половину мозга хумана - его левое полушарие. Роль, задачи и специфика деятельности правого полушария мозга хумана трудно поддается изучению нейрофизиологов и содержит много тайн. Предполагается, что оно отвечает за образное мышление, причем не только здесь и сейчас. ))))
PS: А философию стоит изучать и не ограничиваться мыслями двухвековой давности.