Чи варта програма Johns Hopkins по прикладному генеративному ШІ того?

image

Цього року я записався на програму сертифікації з прикладного генеративного ШІ в університеті Джонса Хопкінса, що проводиться в партнерстві з Great Learning. Моя мета була не просто пройти черговий буткемп чи серію пояснень, а глибше зануритися в суть ШІ-систем і створити щось реальне.

Я працюю в нових продажах бізнесу в Dow Jones, де консультуватиму клієнтів з таких напрямків, як ризики і комплаєнс, новини в реальному часі та машинночитні потоки для аналітики портфоліо і прогнозування. Я вже бачив на власному досвіді, як генеративний ШІ змінює фінансові робочі процеси — від автоматизованих інсайтів до виявлення порушень комплаєнсу. Але я не хотів просто говорити про ШІ. Я хотів його зрозуміти, створювати код, відлагоджувати і застосовувати на практиці.

Тепер, коли я вже глибоко занурений у курс, ось моя чесна думка: так, це варте того — але не для всіх.

Кому цей курс не підходить

Зараз зробимо швидку перевірку реальності.

Якщо ви вже є старшим дата-сайентістом чи інженером, цей курс може бути для вас занадто простим. Також, якщо вам не цікаво вчитися Python чи використовувати Google Colab для програмування, ви навряд чи знайдете тут багато користі.

Ця програма не є безкодовою. І вона не надто поверхнева.

Вона більше підходить для людей середнього рівня — професіоналів, аналітиків, лідерів продуктів і розробників, які хочуть заглибитися в технічні аспекти, вчитися через практичні завдання і почати створювати реальні рішення.

Чому це спрацювало для мене

Структура курсу стала тим, що робить його ефективним. Це не просто лекції. Ось що було включено:

  • Щотижневі приклади кодування на Python.
  • Керовані робочі процеси для LLM, агентів та розробки запитів.
  • Менторство від викладачів з академічним і промисловим досвідом.
  • Навчання на реальних проєктах за допомогою таких інструментів, як LangChain та LangGraph.

Ось як виглядає курс кожного тижня:

Тижні 1–2: Основи + Python для генеративного ШІ

Перші два тижні закладають фундамент.

  • Тиждень 1 вводить генеративні та дискримінативні моделі, векторні ембеддинги та базову архітектуру трансформерів.
  • Тиждень 2 — починаєте програмувати на Python. Не просто копіюєте код, а створюєте скрипти, навчаєтесь відлагоджувати та інтегруєте ChatGPT як партнера по кодуванню.

Це був корисний підхід, оскільки багато учнів мають проблеми не з теорією, а з абстрактною логікою, синтаксичними помилками та страхом почати.

Тиждень 3: Реальний ШІ з кейс-стаді USPS

Ми розглянули завдання з обробки понад 300 000 неправильних адрес для розповсюдження тестових наборів на COVID. Основні висновки:

  • Навіть експерти не могли дійти згоди щодо класифікацій.
  • Моделі NLP (наприклад, Random Forest та Neural Networks) перевершили ручний перегляд.
  • Регулярні вирази та стандартизація адрес покращили точність.

Це показало, як ШІ може допомогти — не замінити — прийняття рішень у складних і неоднозначних ситуаціях.

Тиждень 4: Машинне навчання з даними про якість вина

Ми створювали перші реальні класифікатори:

  • SVM, дерева рішень, випадковий ліс, наївний Байєс та інші.
  • Ми тренували їх на реальних, нерівноважних даних для прогнозування якості вина.

Важливість вибору моделі, якості даних і попередньої обробки даних стало очевидним, оскільки вони суттєво впливають на ефективність.

Тижні 5–6: NLP + LLM

Ми вивчали повний стек, від мішка слів до GPT.

Основні висновки:

  • Попередня обробка важлива: токенізація, видалення стоп-слів і лематизація залишаються основою.
  • LLM, такі як GPT-4, можуть працювати zero-shot, але це має свої ризики (галюцинації, втрата пояснюваності).
  • Трансформери революціонізували NLP, дозволяючи працювати без послідовної пам'яті RNN — даючи нам швидкість і паралелізацію.

Тиждень 7: Розробка запитів

Цей тиждень був присвячений тому, як правильно взаємодіяти з моделями.

Перекладено з: Is the Johns Hopkins Applied Generative AI Program Worth It?