Термины
Нейро-
префикс, обозначающий, что речь идёт о нейро-сетях. Первоначально этот префикс обозначал отношение предмета к нейронам и мозгу: нейро-науки, нейро-маркетинг, нейро-лидерство, нейро-интерфейс. В последнее время «нейро» стало использоваться для обозначения компонентов искусственного интеллекта: нейро-сотрудники. Это терминологическая путаница, но она уже случилась. Поэтому, когда мы в этом руговодстве говорим о «нейро-трекерах», то мы имеем ввиду не шапочку с датчиками, для снятия импульсов мозга, а ИИ агента, исполняющего роль трекера (сопровождающего специалиста).

GPT
аббревиатура от generative pretrained transformer - генеративный предобученный трансформер – нейросеть специального вида, которая, получая на вход текст, генерирует текст на выходе. В основе алгоритма gpt лежит способность к предсказанию следующего токена для цепочки токенов. Для цепочки «мой дядя самых честных», gpt с высокой вероятностью предскажет следующее слово «правил».

Токен
слово или часть слова, которой оперирует GPT. Для английского языка, с высокой вероятностью можно считать, что один токен – это слово целиком. В русском языке, со сложной морфологией слов, иногда токен может означать слово целиком, но чаще слово может кодироваться двумя-тремя токенами.

Промпт
запрос к GPT. От качества составления запроса зависит качество ответа. Рекомендуют в запрос включать: контекст предметной области, описание роли, из которой должен действовать gpt, описание цели и способа достижения цели, описание формата, в котором должен быть представлен результат и ограничения.
Например: мне нужно написать рассказ о жизни животных, действуй как опытный натуралист, напиши синопсис рассказа о жизни муравьёв, обязательно включи несколько интересных фактов. Объём синопсиса 200-300 слов. Отдельные части оформи как элементы списка.

Цепочка промптов
обычно, запрос к GPT хоть и даёт результат, часто этот результат при ближайшем рассмотрении оказывается банальным. Чтобы получать интересные нетривиальные результаты, используются цепочки промптов, которые ведут к результату через ряд промежуточных результатов.
Например: чтобы получить список идей, понадобится цепочка промптов, в которой на 1 шаге мы попросим описать деятельность в виде этапов. На 2 шаге попросим охарактеризовать этапы и выделить узкие места. На 3 шаге попросим предложить идеи, как устранить узкие места. На 4 шаге попросим покритиковать предложенные идеи. На 5 шаге – доработать идеи с учётом критики. И только на 6 шаге – создать описание идей.

Контекстное окно
на самом деле, промптом является не только тот запрос, который мы пишем последним при обращении к GPT. Промптом является весь предыдущий диалог, включающий все запросы пользователя и все ответы gpt. Размер контекстного окна определяется в токенах. Младшие модели, как правило, имеют небольшой размер контекстного окна – до 8000 токенов. Старшие модели оперируют окнами от 128000 токенов. Чем больше контекстное окно, тем больше информации может быть «принято во внимание». В продвинутом промптинге, прежде чем приступить к вопрошанию, полезно «прогрузить» контекстное окно той информацией, которая важна для генерации качественных ответов.

Параметризация промпта
когда вы пишете очередной промпт в цепочке, то в нём есть структурная часть и есть параметры. Чтобы удачный промпт можно было использовать повторно, важно записать его таким образом, чтобы параметры были указаны косвенным образом.
Например: мне нужно написать рассказ о __тема_рассказа__, действуй как __специалист_в_теме__, напиши синопсис рассказа __название_рассказа__, обязательно включи несколько интересных фактов. Объём синопсиса 200-300 слов. Отдельные части оформи как элементы списка.
Откуда возьмутся параметры? Из контекстного окна. Вам нужно позаботиться, чтобы необходимая информация оказалась там к моменту, когда вы запускаете промпт.

Системный промпт: см. «Инструкция ассистента»

Инструкция ассистента
предзагруженная совокупность промптов, используемых GPT. Эта совокупность изначально может содержать все необходимые для решения задачи пользователя промпты и цепочки промптов. Не существует какого-либо предзаданного языка программирования для инструкции, но опыт показывает, что имеет смысл выделять на логическом уровне составные части инструкций:
  • исполнительные промпты – это части, отвечающие за генерацию ответов ассистента в конкретных условиях. Их легко обнаружить благодаря наличию глаголов в повелительном наклонении. Важно, чтобы исполнительные промпты были предварительно параметризованы – это позволит их использовать более гибко для широкого спектра задач.
  • оркестровка – это промпты и метки внутри системного промпта, позволяющие исполнительному механизму ориентироваться, что сейчас происходит и какой исполнительный промпт должен быть активирован при генерации ответа. Для структурирования инструкции удобно использовать разметку markdown.
  • справочники – какая-то важная информация, которая используется промптами, может быть размещена в инструкции. Для структурирования справочников удобно использовать как разметку markdown, так и разметку json.
  • векторное хранилище – какая-то информация, используемая промптами, может быть загружена в виде файлов в векторное хранилище. Важно понимать, что векторное хранилище не является частью контекстного окна и исполнительный механизм gpt оперирует его содержимым довольно произвольно (бывает сложно добиться хорошего ответа). В качестве плюса – в хранилище можно загрузить большой объём информации. Как приём работы с векторным хранилищем, хорошо работает связка: вначале загрузить какую-то информацию в контекстное окно, а затем начать её использовать.
  • стиль – помимо справочной информации, инструкция может содержать описание персоны, от имени которой «говорит» ассистент. Одни и те же промпты будут выдавать разные ответы для разных стилевых настроек.

MindSet
буквально – установки мышления. В более прикладном значении – способ думать при решении той или иной задачи. Мы исходим из предположения, что использование разных майндсетов приводит к разным результатам. И существуют более и менее оптимальные установки мышления для решения тех или иных задач. Тогда наша задача – обнаруживать оптимальные «майндсеты» и на их основе строить продуктивные цепочки промптов.

МыслеДжоули
условная единица, в которой ведётся внутренний учёт в системе. Изначально было принято, что 1 мДж равен 1’000 токенов gpt-4 (январь 2024). По состоянию на январь 2025 за 1 мДж можно получить 4’000 токенов gpt-4o, или 50’000 токенов gpt-4o-mini. Политика OpenAI такова, что новые модели не только умнее, но и дешевле предыдущих. Текущие тарифы доступны по команде /tariff (есть в Меню).