Публикации по теме 'neural-networks'


Классическая нейронная сеть: почему и какие активации работают?
Классическая нейронная сеть: почему и какие активации работают? Сегодня я расскажу вам о различных возможных функциях активации и их назначении в классической нейронной сети. Функции активации - это семейство функций, цель которых - ввести нелинейность после вычисления уровня. Действительно, без функции активации, независимо от того, сколько аугментации или тренировки, хорошей подгонки не получится (модель недостаточно сложна): что могло быть связано с этим решением (модель..

Искусственный интеллект: наступление новой эры и вызовы, которые она ставит
Изучение этических и правовых проблем ИИ в современном мире За последние несколько месяцев искусственный интеллект (ИИ) стал модным словом, и его все большее значение в различных отраслях и повседневной жизни. Это технология, которая позволяет машинам учиться и адаптироваться, позволяя им выполнять задачи, которые ранее были доступны только людям. Поскольку ИИ продолжает развиваться и становиться все более изощренным, он ставит ряд проблем, которые необходимо решать. В этой статье мы..

Алгоритм обучения персептрона: прямая связь и обновление веса
Введение: Алгоритм обучения персептрона (PLA) представляет собой подход к обучению с бинарной классификацией под наблюдением. Путем обновления весов метод стремится предсказать результат для заданных входных данных и минимизирует функцию потерь. Цель состоит в том, чтобы правильно классифицировать данные, чтобы функция потерь была равна нулю для всех точек данных. Это может быть достигнуто путем итеративного выполнения прямых и обратных проходов заданных данных до тех пор, пока потери не..

Несколько входов и несколько выходов в нейронной сети
Пошаговая реализация на Python В этом посте мы увидим, как применить обратное распространение для обучения нейронной сети с несколькими входами и несколькими выходами. Это эквивалентно функциональному API Keras. Вы можете скачать Jupyter Notebook здесь . Примечание. В этом посте используется многое из предыдущих глав. Рекомендуется просмотреть предыдущие сообщения. Вернуться к предыдущему сообщению Вернуться к первому сообщению 5.8 Несколько входов и несколько..

Представляем автоэнкодер, часть 2
Представляем Autoencoder, часть 2 В части 1 мы рассмотрели различные компоненты автоэнкодера и кратко рассказали, где можно найти его приложения, включая уменьшение размерности, извлечение признаков и т. д. На самом деле, и вообще говоря, автоэнкодеры во всех своих приложениях извлекают признаки из любого заданные входные слои. Вот в этой части мы рассмотрим различные типы AE и в процессе ответим на некоторые очень уместные вопросы. Варианты и типы автоэнкодеров лучше всего понять,..

Написание нейросети от руки, часть 5  — сколько это стоило?
Теперь, когда мы сделали проход вперед, нам нужно посмотреть, как далеко мы отклонились. Это называется составлением функции стоимости. Допустим, мы пытаемся угадать число. Теперь предположим, что наше предположение было 4, но наш результат был 8. Мы могли бы сказать что-то вроде того, что ошиблись на 100 процентов. Или мы могли бы сказать, что ошиблись на 4. Итак, давайте воспользуемся примером off by 4. Но что, если наше предположение было 4, а наш результат был 0? Если бы мы..

Вычисления v0.10.0
Ядро смещения устанавливает записи для отсутствующих экземпляров в NaN, а не в ноль. Количество блоков в измерении Y, используемом в слое смещения, теперь соответствует количеству столбцов на экземпляр. Добавлена ​​функция, вычисляющая количество требуемых итераций и потоков для входных операций. В CublasBiasLayerTest добавлен повторно используемый метод тестирования прямого распространения. Теперь есть два теста прямого распространения смещения cuBLAS: один с полной партией и один с..