Публикации по теме 'mathematics'


Атомные часы в вашем кармане
Атомные часы в вашем кармане В статье «GPS и замедление времени» мы обсуждали, как ваш смартфон использует GPS для определения вашего местоположения, и увидели, что ошибка в измерении времени, даже такая маленькая, как миллиардная th секунды, недопустима. : GPS и замедление времени Теперь замедление времени высечено на камне. medium.com Но если на спутниках GPS часы атомарные (и они такие же большие, как на изображении выше), часы..

Введение в машины опорных векторов с мягким полем
В предыдущей статье мы говорили о Машине опорных векторов с жесткими краями . В этой статье мы обсудим машины опорных векторов мягкой маржи. Мы обсудим как линейный, так и нелинейный случаи. Поскольку нам нужно будет рассмотреть ядра в случае нелинейных SVM, вам может быть полезно сначала прочитать следующую статью: Understanding the Kernel Trick . Мы также увидим, как SVM представляют собой выпуклые задачи обучения, а это значит, что вы также можете прочитать следующую статью о..

Как машины учатся: сила градиентного спуска
Понимание принципов, проблем и приложений градиентного спуска Введение в градиентный спуск Градиентный спуск — это фундаментальный алгоритм оптимизации, используемый в машинном обучении и науке о данных для поиска оптимальных значений параметров в модели. Основная идея градиентного спуска заключается в итеративной корректировке параметров модели в направлении наискорейшего спуска функции стоимости, которая измеряет разницу между прогнозируемыми выходными данными и фактическими..

Доказательство выпуклости логарифмических потерь для логистической регрессии
Распаковка влияния функции ошибки потери журнала на логистическую регрессию Автор(ы): Пратик Шукла Мужество похоже на мускул. Мы укрепляем его использованием . — Рут Гордо Оглавление: Доказательство выпуклости функции логарифмических потерь для логистической регрессии Визуальный взгляд на BCE для логистической регрессии Ресурсы и ссылки Введение В этом руководстве мы увидим, почему функция логарифмических потерь лучше работает в логистической регрессии...

Комбинаторные взрывы, объяснение с помощью мороженого: как добавить немного и получить много
Давайте исследуем забавный, противоречащий интуиции мир комбинаторики. Объединение значений для формирования наборов различных комбинаций может быть сложной задачей. Даже если игнорировать порядок, количество возможных наборов тревожно растет. Для массива из двух значений [1, 2] вы можете сгенерировать: [] (пустой набор) [1] [2] [1,2] (or [2,1]) Если повторы разрешены (например, [2, 2]), увеличение будет еще больше. По мере увеличения количества входных значений количество..

Нейронные сети с нуля
Введение в нейронные сети Нейронная сеть — это сеть, которая точно имитирует обучение человеческого мозга. Это делается с помощью весов соединений и смещений для каждого нейрона в каждом слое. В нейронной сети информация передается на слой, затем слой вычисляет взвешенную сумму входных данных, добавляет к ней смещение и передает ее следующему слою нейронной сети. Если это сделать для многих слоев с использованием соответствующего количества нейронов в каждом слое, это может привести к..

Введение в векторы и матрицы с использованием Python для науки о данных
Начало работы с основными компонентами линейной алгебры для науки о данных Теперь, когда мы заложили основу для изучения математики для науки о данных , пора приступить к первой теме серии, которой является Линейная алгебра. Этот пост является первым из серии статей о линейной алгебре, в которой я представляю основные компоненты алгебры, которые мы будем использовать в будущем. Он короткий, четкий и сфокусированный. Вы также можете пошагово следить за мной здесь: Темы,..