Магазин
О сервисе
Услуги
Конкурсы
Новости
Акции
Помощь
8 800 500 11 67
RUB
Сменить валюту
Войти
Поиск
Все книги
Импринты
Бестселлеры
Бесплатные
Скидки
Подборки
Книги людям
12+
Все
Информационные технологии
Информационные технологии: общее
Оглавление - Нейросети. Создание и оптимизация будущего
Девис Джеймс
Электронная
600 ₽
Печатная
1 463 ₽
Читать фрагмент
Купить
Объем: 598 бумажных стр.
Формат: epub, fb2, pdfRead, mobi
Подробнее
0.0
0
Оценить
О книге
отзывы
Оглавление
Читать фрагмент
Слово от автора
Глава 1. Введение в нейронные сети и глубокое обучение
1.1. Эволюция нейронных сетей
1.2. Основные понятия нейронных сетей
1.3. Принципы работы нейронных сетей
1.4. Введение в глубокое обучение
1.5. Архитектуры и их основные типы
1.6. Проблемы и ограничения нейронных сетей
1.7. Почему важно понимание архитектур и оптимизации
Глава 2. Основы нейронных сетей и градиентного спуска
2.1. Процесс обучения нейронной сети
2.2. Подготовка данных
2.3. Обратное распространение ошибки
2.4. Алгоритмы оптимизации
2.5. Проблемы и ограничения в обучении
Глава 3. Полносвязные нейронные сети
3.1. Введение в полносвязные нейронные сети
3.2. Архитектура полносвязной нейронной сети
3.3. Принципы обучения полносвязных нейронных сетей
3.4. Применение полносвязных нейронных сетей
3.5. Преимущества и недостатки полносвязных нейронных сетей
3.6. Современные улучшения и модификации
Глава 4. Сверточные нейронные сети (CNN)
4.1. Введение в сверточные нейронные сети
4.2. Концепция свёртки
4.3. Пулинг и снижение размерности
4.4. Применение сверточных сетей
4.5. Методы улучшения CNN
4.6. Будущее CNN и текущие ограничения
4.7. Задачи для практики по теме «Свертка»
4.8. Задачи для практики по теме «Пуллинг»
Глава 5. Рекуррентные нейронные сети (RNN) и их расширения
5.1. Введение в рекуррентные нейронные сети
5.2. Архитектура RNN
5.3. Long Short-Term Memory (LSTM)
5.4. Gated Recurrent Unit (GRU)
5.5. Применение RNN, LSTM и GRU
5.6. Расширения RNN
5.7. Ограничения RNN и переход к Transformer
5.8. Практическая реализация RNN
5.9. Будущее RNN и их применение
Глава 6. Автокодировщики и их вариации
6.1. Основы автокодировщиков
6.2. Вариационные автокодировщики (VAE)
6.3. Сверточные автокодировщики
6.4. Применение автокодировщиков для сжатия данных
6.5. Применение автокодировщиков для генерации данных
6.6. Преимущества и ограничения автокодировщиков
6.7. Совмещение автокодировщиков с другими архитектурами
Глава 7. Генеративно-состязательные сети (GAN)
7.1. Введение в генеративно-состязательные сети
7.2. Архитектура GAN
7.3. Алгоритм обучения GAN
7.4. Вариации и расширения GAN
7.5. StyleGAN: генерация изображений высокого качества
7.6. CycleGAN: преобразование изображений
7.7. Практическое применение GAN
7.8. Перспективы развития GAN
Глава 8. Архитектуры трансформеров
8.1. Введение в трансформеры
8.2. Основные компоненты трансформера
8.3. Архитектура энкодера и декодера
8.4. Обучение трансформеров
8.5. Популярные модели на основе трансформеров
8.6. Применение трансформеров в NLP
8.7. Перспективы развития трансформеров
Глава 9. Применение трансформеров за пределами NLP
9.1. Обработка изображений с использованием трансформеров
9.2. Обработка звука и музыки
9.3. Обработка видео с использованием трансформеров
9.4. Перспективы применения трансформеров в других областях
Глава 10. Графовые нейронные сети (GNN)
10.1. Введение в графовые нейронные сети
10.2. Применение GNN
10.3. Основные концепции GNN
10.4. Архитектуры графовых нейронных сетей
10.5. Методы обучения GNN
10.6. Реализация GNN на практике
10.7. Ограничения и вызовы
Глава 11. Многозадачное и переносное обучение
11.1. Многозадачное обучение (Multi-task Learning, MTL)
11.2. Переносное обучение (Transfer Learning)
11.3. Сочетание многозадачного и переносного обучения