1. Комбинированная платформа машинного обучения для глубокого обучения и повышения градиента для прогнозирования текучего интеллекта (arXiv)

Автор: Йилэн С. Ван, Инсинь Цао, Сяохуэй Се

Аннотация: Конкурс нейрокогнитивного прогнозирования ABCD — это соревнование, организованное сообществом, в котором участникам предлагается разработать алгоритмы для прогнозирования показателей подвижного интеллекта по данным МРТ T1-w. В этой работе мы предлагаем глубокое обучение в сочетании с машинной структурой повышения градиента для решения этой задачи. Мы обучаем сверточную нейронную сеть сжатию многомерных данных МРТ и изучению значимых характеристик изображения путем прогнозирования 123 производных данных с непрерывными значениями, предоставляемых с каждым МРТ. Эти извлеченные функции затем используются для обучения машины повышения градиента, которая прогнозирует оценку остаточного интеллекта жидкости. Наш подход позволил достичь значений среднеквадратической ошибки (MSE) 18,4374, 68,7868 и 96,1806 для обучающего, проверочного и тестового набора соответственно. △ Меньше

2. Машина для повышения мягкого градиента (arXiv)

Автор: Цзи Фэн, И-Сюань Сюй, Юань Цзян, Чжи-Хуа Чжоу.

Аннотация: Машина повышения градиента зарекомендовала себя как один из успешных аппроксиматоров функций и широко используется в различных областях. Однако, поскольку процедура обучения каждого базового учащегося должна осуществляться в последовательном порядке, невозможно распараллелить процесс обучения между базовыми учащимися для ускорения. Кроме того, в условиях онлайн-обучения или поэтапного обучения GBM достигли неоптимальной производительности из-за того, что ранее обученные базовые учащиеся не могут адаптироваться к окружающей среде после обучения. В этой работе мы предлагаем машину мягкого повышения градиента (sGBM), соединяя вместе несколько дифференцируемых базовых обучающихся, вводя как локальные, так и глобальные цели, основанные на повышении градиента, после чего все базовые обучающиеся могут быть совместно оптимизированы с помощью линейного ускорения. При использовании дифференцируемых мягких деревьев решений в качестве базового обучающего устройства такое устройство можно рассматривать как альтернативную версию (жестких) градиентных деревьев решений с дополнительными преимуществами. Экспериментальные результаты показали, что sGBM обеспечивает гораздо более высокую эффективность использования времени и большую точность при условии одного и того же базового обучающегося как в онлайн, так и в автономном режиме.