“Уявіть, що ви система попередження про небезпеку на дорогах Делі. Повідомляйте мене про раптовий дощ і пропонуйте безпечні дії.”
Покрокова обробка:
- Токенізація:
- Вхідний запит розбивається на токени. Для моделей на основі GPT ці токени — це підсловні одиниці.
- Токени:
[Imagine, you, are, a, danger, alert, system, for, Bangalore, 's, roads, ., Notify, me, of, sudden, rainfall, and, suggest, safe, actions, .]
- Контекстне вбудовування:
- Модель присвоює кожному токену контекстний вектор. Ці вектори відображають значення та взаємозв’язки, враховуючи навколишні слова.
- Приклад: “danger alert system” сприймається як концепція, а не окремі токени завдяки цим вбудовуванням.
- Виведення сценарію:
- GPT визначає шаблони в запиті, щоб вивести сценарій:
- Роль: “система попередження про небезпеку.”
- Локація: Бангладеш.
- Фокус: Раптовий дощ.
- Дії: Повідомити та запропонувати поради з безпеки.
- Це розуміння стає основою для відповіді.
Перекладено з: How precisely the prompt operates and what scenario-based results we obtain ?