Глоссарий по работе с ИИ

При работе с машинным зрением и нейронными сетями для них полезно ознакомиться с рядом ключевых терминов. Вот список некоторых из них:

  1. Изображение (Image) - Основная единица данных в машинном зрении, обычно представляет собой матрицу пикселей.

  2. Пиксель (Pixel) - Минимальный элемент изображения, который имеет цвет или градацию серого.

  3. Классификация (Classification) - Задача определения категории объекта на изображении.

  4. Локализация (Localization) - Определение местоположения объекта на изображении, часто в виде ограничивающей рамки.

  5. Детекция (Detection) - Определение наличия и местоположения множества объектов на изображении.

  6. Сегментация (Segmentation) - Процесс разделения изображения на части, которые соответствуют разным объектам или областям сцены. Сегментация может быть семантической (все пиксели, относящиеся к одному объекту, имеют одинаковую метку) или инстанс-сегментации (различные экземпляры одного класса различаются).

  7. Сверточные нейронные сети (Convolutional Neural Networks, CNN) - Особый класс нейронных сетей, предназначенных для обработки данных, имеющих вид матриц (например, изображений).

  8. Слой (Layer) - Структурная единица нейронной сети, которая преобразует входные данные с помощью активационных функций и весов.

  9. Фильтр (Filter)/Ядро (Kernel) - Маленькая матрица, используемая для выполнения операции свертки на изображении.

  10. Пулинг (Pooling) - Процесс уменьшения размерности входного изображения для уменьшения количества параметров и вычислений в сети.

  11. ReLU (Rectified Linear Unit) - Популярная функция активации в нейронных сетях, которая возвращает ноль для всех отрицательных значений и оставляет положительные значения без изменения.

  12. Обучающий набор данных (Training Dataset) - Набор данных, используемый для обучения нейронной сети.

  13. Валидационный набор данных (Validation Dataset) - Набор данных, используемый для тонкой настройки параметров сети и предотвращения переобучения.

  14. Тестовый набор данных (Test Dataset) - Набор данных, используемый для оценки производительности обученной нейронной сети.

  15. Переобучение (Overfitting) - Ситуация, когда нейронная сеть слишком хорошо научилась распознавать данные обучающего набора, в ущерб обобщающей способности на новых данных.

  16. Подстройка (Fine-tuning) - Процесс настройки предварительно обученной модели под конкретную задачу с помощью небольшого количества данных.

  17. Аугментация данных (Data Augmentation) - Техника увеличения количества обучающих данных путем внесения случайных изменений в исходные данные (например, повороты, масштабирование, изменение цветовой гаммы), что помогает улучшить обобщающую способность модели.

  18. Скорость обучения (Learning Rate) - Параметр, который определяет, насколько сильно обновляются веса нейронной сети в процессе обучения. Слишком большая скорость может привести к нестабильности, слишком маленькая - к замедлению обучения.

  19. Батч (Batch) - Подмножество тренировочных данных, используемое для одного шага обучения. Батчи позволяют использовать методы мини-пакетного градиентного спуска.

  20. Эпоха (Epoch) - Один полный проход через весь тренировочный набор данных. Обычно обучение модели включает множество эпох.

  21. Backpropagation (Обратное распространение) - Метод, используемый для обучения нейронных сетей, который включает в себя распространение ошибки от выходов сети обратно к входам для обновления весов.

  22. Глубокое обучение (Deep Learning) - Раздел машинного обучения, основанный на обучении многослойных нейронных сетей.

  23. Потери (Loss) - Мера того, насколько предсказания модели отличаются от истинных значений. Цель обучения - минимизировать функцию потерь.

  24. Оптимизатор (Optimizer) - Алгоритм или метод, используемый для изменения атрибутов нейронной сети, таких как веса и скорость обучения, с целью минимизации потерь.

  25. Инициализация весов (Weight Initialization) - Методика задания начальных значений весов в нейронной сети перед началом обучения. Правильная инициализация может улучшить сходимость.

  26. Трансферное обучение (Transfer Learning) - Подход в машинном обучении, при котором заранее обученная модель на одной задаче адаптируется для решения другой, схожей задачи.

  27. Полносвязный слой (Fully Connected Layer) - Слой в нейронной сети, где каждый нейрон соединен со всеми нейронами предыдущего слоя. Часто используется в конце архитектур CNN для классификации.

  28. Ансамблирование (Ensembling) - Метод, при котором несколько моделей обучаются для решения одной и той же задачи, а их предсказания комбинируются для улучшения точности.

  29. Предсказание в реальном времени (Real-time Inference) - Процесс выполнения вывода модели нейронной сети в реальном времени, часто необходим в приложениях компьютерного зрения, таких как видеонаблюдение или интерактивные системы.

Last updated