Ось повний список команд Git, згрупованих за їх призначенням. Цей список включає більшість популярних і просунутих команд Git:
Команди конфігурації
git config --global user.name "Your Name" # Встановити глобальне ім’я користувача
git config --global user.email "[email protected]" # Встановити глобальну електронну пошту
git config --list # Переглянути налаштування конфігурації
git config --global alias. "" # Створити псевдонім команди
Команди роботи з репозиторіями
git init # Ініціалізувати новий репозиторій
git clone # Клонувати віддалений репозиторій
git status # Показати статус робочої директорії
Основні команди знімків
git add # Додати файл до staging області
git add . # Додати всі зміни до staging області
git commit -m "message" # Закомітити зміни з повідомленням
git commit --amend # Виправити останній коміт
Команди роботи з гілками та злиття
git branch # Переглянути гілки
git branch # Створити нову гілку
git checkout # Перемкнутися на іншу гілку
git checkout -b # Створити і перейти на нову гілку
git merge # Злити гілку в поточну гілку
git branch -d # Видалити гілку
git branch -D # Примусово видалити гілку
Команди роботи з віддаленими репозиторіями
git remote # Переглянути віддалені репозиторії
git remote add # Додати новий віддалений репозиторій
git remote -v # Показати деталі віддаленого репозиторію
git push # Відправити зміни в віддалену гілку
git fetch # Отримати зміни з віддаленого репозиторію
git pull # Отримати зміни і злиття з віддаленого репозиторію
git push --set-upstream # Прив’язати локальну гілку до віддаленої
git remote rm # Видалити віддалений репозиторій
Перегляд та порівняння змін
git diff # Показати зміни в робочій директорії
git diff --staged # Показати змінені файли, що очікують коміту
git log # Переглянути історію комітів
git log --oneline # Переглянути коротку історію комітів
git show # Показати деталі конкретного коміту
git blame # Показати, хто редагував кожен рядок файлу
Скасування змін
git restore # Скасувати зміни в робочій директорії
git restore --staged # Відмінити стадіювання файлу
git reset # Відмінити стадіювання файлу без зміни його вмісту
git reset --soft # Повернутися до коміту, зберігаючи стадійовані зміни
git reset --mixed # Повернутися до коміту, скасувати стадіювання
git reset --hard # Повернутися до коміту, скинути всі зміни
git revert # Скасувати конкретний коміт
Команди для роботи з тегами
git tag # Переглянути всі теги
git tag # Створити новий тег
git tag -a -m "message" # Створити анотований тег
git push origin # Відправити тег в віддалений репозиторій
git push origin --tags # Відправити всі теги в віддалений репозиторій
git tag -d # Видалити локальний тег
git push origin --delete # Видалити тег з віддаленого репозиторію
Команди для роботи з хранимими змінами
git stash # Зберегти зміни
git stash list # Переглянути список змін
git stash apply # Застосувати останні зміни
git stash apply stash@{n} # Застосувати конкретні зміни
git stash drop # Видалити останні збережені зміни
git stash drop stash@{n} # Видалити конкретні збережені зміни
git stash clear # Очистити всі збережені зміни
Просунуті команди
git cherry-pick # Застосувати зміни з конкретного коміту
git rebase # Перемістити коміти на іншу основу
git bisect start # Розпочати бінарний пошук помилок
git bisect good # Позначити коміт як добрий
git bisect bad # Позначити коміт як поганий
git submodule add # Додати підмодуль
git submodule update --init --recursive # Ініціалізувати та оновити підмодулі
Команди для очищення
git clean -n # Переглянути файли, які будуть видалені
git clean -f # Видалити невідслідковані файли
git clean -fd # Видалити невідслідковані файли та директорії
git clean -xfd # Видалити невідслідковані та ігноровані файли
> Сподіваюся, ви прочитали мої попередні статті. Це продовження серії статей про розгортання моделей машинного навчання.
Уявіть, що ви створили чудову модель машинного навчання, і вона готова вирішувати реальні проблеми. Але як зробити її доступною для кінцевих користувачів, клієнтів чи додатків по всьому світу? Відповідь полягає в **хмарних платформах** таких як **AWS (Amazon Web Services)**, **Azure** та **GCP (Google Cloud Platform)**.
Ці платформи надають інфраструктуру та інструменти, необхідні для ефективного розгортання, управління та масштабування ваших моделей машинного навчання. У цій статті ми розглянемо, як розгорнути моделі машинного навчання на цих трьох популярних хмарних платформах.

_Створено за допомогою ШІ_
## Чому хмарні платформи для розгортання моделей машинного навчання?
Хмарні платформи пропонують кілька переваг:
1. **Масштабованість**: Автоматичне оброблення зростаючих навантажень.
2. **Економічна ефективність**: Сплачуйте тільки за використані ресурси.
3. **Глобальна доступність**: Моделі доступні з будь-якої точки світу.
4. **Вбудовані інструменти**: Спрощують розгортання, моніторинг та повторне навчання.
5. **Інтеграція**: Безшовне з'єднання з іншими хмарними сервісами.
## Основні етапи розгортання моделей машинного навчання
1. **Підготуйте модель**: Збережіть свою навчена модель у форматі, що підходить для розгортання (наприклад, `.pkl`, `.h5`, або ONNX).
2. **Контейнеризуйте модель**: Використовуйте Docker для упакування вашої моделі та API в контейнер.
3. **Виберіть хмарний сервіс**: Оберіть AWS, Azure або GCP залежно від ваших вимог.
4. **Розгорніть і протестуйте**: Завантажте контейнер або код, налаштуйте параметри та протестуйте розгортання.
## Розгортання на AWS
AWS пропонує кілька сервісів для розгортання моделей машинного навчання:
- **AWS Elastic Beanstalk**: Для розгортання контейнеризованих додатків.
- **Amazon SageMaker**: Спеціалізований сервіс для тренування та розгортання моделей машинного навчання.
- **AWS Lambda**: Для безсерверного розгортання.
## Покрокове розгортання на AWS SageMaker
**1. Завантажте модель в S3**: Збережіть вашу модель і завантажте її в бакет Amazon S3.
aws s3 cp model.pkl s3://your-bucket-name/
```
- Створіть SageMaker Endpoint: Використовуйте консоль SageMaker або SDK для створення endpoint для інференсу.
import boto3
sagemaker = boto3.client('sagemaker')
response = sagemaker.create_model(
ModelName='my-ml-model',
PrimaryContainer={
'Image': 'your-container-image',
'ModelDataUrl': 's3://your-bucket-name/model.pkl'
}
)
- Розгорніть і протестуйте: Розгорніть модель як endpoint та виконуйте передбачення через API SageMaker.
Джерела:
- Deploy Machine Learning Model using Amazon SageMaker | AWS tutorial від Edureka
- End To End Machine Learning Project Implementation Using AWS Sagemaker від Krish Naik
Розгортання на Azure
Azure надає потужні сервіси для розгортання моделей машинного навчання:
- Azure Machine Learning (Azure ML): Спеціалізований сервіс для тренування та розгортання моделей.
- Azure App Service: Для розгортання API та веб-додатків.
Покрокове розгортання на Azure ML
1. Зареєструйте модель: Використовуйте робоче середовище Azure ML для реєстрації вашої навченої моделі.
2. Створіть скрипт для оцінки: Напишіть скрипт, який визначає, як модель повинна обробляти запити.
def init():
global model
model = load_model('model.pkl')
def run(input_data):
data = json.loads(input_data)
return model.predict(data['features'])
3. Розгорніть як веб-сервіс: Використовуйте Azure CLI або SDK для розгортання моделі.
az ml model deploy --model-id my_model --name my-service --runtime python --deployment-type aks
4.
**Тестування сервісу: Надсилайте HTTP POST запити на розгорнутий endpoint для отримання передбачень.
Джерела:
- Deploying Machine Learning Model on Azure with Python | Step-by-Step Guide | ML — Azure Deployment від Siddhardhan
- Practical Guide to Deploying an ML Model on Azure ML Studio від Rashmi Gunawardana
Розгортання на GCP
GCP пропонує кілька інструментів для розгортання моделей машинного навчання:
- AI Platform (Vertex AI): Керований сервіс для моделей машинного навчання.
- Cloud Run: Для розгортання контейнеризованих додатків.
- App Engine: Для масштабованих веб-додатків.
Покрокове розгортання на GCP AI Platform
1. Завантажте модель в Cloud Storage: Збережіть і завантажте вашу модель в бакет GCP.
gsutil cp model.pkl gs://your-bucket-name/
2. Створіть модель на AI Platform: Використовуйте консоль або SDK для реєстрації вашої моделі.
gcloud ai models create --display-name "My Model"
3. Розгорніть модель: Створіть версію і розгорніть її на endpoint.
gcloud ai endpoints deploy-model my-endpoint-id --model=my-model-id
4. Тестування endpoint: Надсилайте POST запит на endpoint з вхідними даними.
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
-d '{"instances": [{"features": [1.2, 3.4, 5.6]}]}' \
"https://my-endpoint-url"
Джерела:
- How To Deploy ML Models With Google Cloud Run від Patrick Loeber
- Deployment of Machine Learning Models in Google Cloud Platform by Krish Naik
Порівняння AWS, Azure та GCP
Ключові аспекти для хмарного розгортання
1. Управління витратами:
- Використовуйте авто-масштабування для управління навантаженнями.
- Моніторте використання, щоб уникнути неочікуваних рахунків.
2. Затримка:
- Оптимізуйте розміри контейнерів та ресурси.
- Розгортаєте близько до вашої аудиторії.
3. Безпека:
- Використовуйте шифрування для даних у процесі передачі та зберігання.
- Налаштовуйте ролі та політики IAM (Identity and Access Management).
4. Моніторинг моделі:
- Використовуйте вбудовані інструменти для моніторингу точності та виявлення дрифту (drift).
- Автоматизуйте пайплайни для повторного навчання, якщо потрібно.
Підсумки
Розгортання моделей машинного навчання в хмарі дозволяє з’єднати розробку та реальне застосування. AWS, Azure та GCP пропонують унікальні функції, які підходять для різних потреб. Зрозумівши їх переваги та слідуючи крокам, наведеним вище, ви можете забезпечити, щоб ваші моделі машинного навчання були не тільки функціональними, але й масштабованими та надійними.
У наступній статті ми розглянемо, як моніторити моделі в продакшн для ефективного управління дріфтом концепцій та повторним навчанням. Слідкуйте за оновленнями!
Дякую за увагу…Давайте зв'язуватись!
Тестування Сервісу: Надішліть HTTP POST запити до розгорнутого кінцевого пункту для отримання прогнозів.
Посилання:
- Розгортання моделі машинного навчання на Azure з Python | Покроковий посібник | ML — Azure Deployment від Siddhardhan
- Практичний посібник по розгортанню моделі ML на Azure ML Studio від Rashmi Gunawardana
Розгортання на GCP
GCP надає кілька інструментів для розгортання моделей ML:
- AI Platform (Vertex AI): Керована служба для моделей ML.
- Cloud Run: Для розгортання контейнеризованих додатків.
- App Engine: Для масштабованих веб-додатків.
Покрокове розгортання на GCP AI Platform
1. Завантажте модель до Cloud Storage: Збережіть і завантажте вашу модель у GCP bucket.
gsutil cp model.pkl gs://your-bucket-name/
2. Створіть модель на AI Platform: Використовуйте консоль або SDK для реєстрації моделі.
gcloud ai models create --display-name "My Model"
3. Розгорніть модель: Створіть версію і розгорніть її до кінцевого пункту.
gcloud ai endpoints deploy-model my-endpoint-id --model=my-model-id
4. Тестування кінцевого пункту: Надішліть POST запит до кінцевого пункту з вхідними даними.
curl -X POST -H "Authorization: Bearer $(
-d '{"instances": [{"features": [1.2, 3.4, 5.6]}]}' \
"https://my-endpoint-url"
Посилання:
- Як розгорнути моделі ML за допомогою Google Cloud Run від Patrick Loeber
- Розгортання моделей машинного навчання в Google Cloud Platform від Krish Naik
Порівняння AWS, Azure та GCP
Основні аспекти для розгортання в хмарі
1. Управління витратами:
- Використовуйте автоскейлінг для управління навантаженням.
- Моніторьте використання, щоб уникнути несподіваних рахунків.
2. Затримка:
- Оптимізуйте розміри контейнерів та ресурси.
- Розгорніть поблизу вашої цільової аудиторії.
3. Безпека:
- Використовуйте шифрування для даних під час передачі та зберігання.
- Налаштуйте ролі та політики IAM.
4. Моніторинг моделей:
- Використовуйте вбудовані інструменти для моніторингу точності та виявлення змін.
- Автоматизуйте конвеєри повторного навчання за необхідності.
Підсумки
Розгортання моделей ML в хмарі дозволяє з’єднати розробку та реальні застосування. AWS, Azure і GCP пропонують унікальні можливості, орієнтовані на різні потреби. Розуміючи їх переваги та слідуючи крокам, наведеним вище, ви можете забезпечити, щоб ваші моделі ML були не лише функціональними, а й масштабованими та надійними.
У наступній статті ми розглянемо, як моніторити моделі в продукції, щоб ефективно працювати з концептуальним зсувом і повторним навчанням. Залишайтеся з нами!
Дякуємо за читання…Зв’яжімося!
Перекладено з: Day 68: ML Model Deployment — Deploying on AWS, Azure, and GCP