Русская Википедия:Неотрицательное матричное разложение

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Файл:NMF.png
Иллюстрация приближённого неотрицательного матричного разложения: матрица Шаблон:Math представлена двумя меньшими матрицами Шаблон:Math и Шаблон:Math, которые при умножении приблизительно воспроизводят Шаблон:Math.

Неотрицательное матричное разложение (НМР), а также неотрицательное приближение матрицыШаблон:SfnШаблон:Sfn, это группа алгоритмов в Шаблон:Не переведено 5 и линейной алгебре, в которых матрица Шаблон:Math разлагается на (обычно) две матрицы Шаблон:Math и Шаблон:Math, со свойством, что все три матрицы имеют неотрицательные элементы. Эта неотрицательность делает получившиеся матрицы более простыми для исследования. В приложениях, таких как обработка спектрограмм аудиосигнала или данных мускульной активности, неотрицательность свойственна рассматриваемым данным. Поскольку задача в общем случае неразрешима, её обычно численно аппроксимируют.

НМР нашёл применение в таких областях как астрономияШаблон:SfnШаблон:Sfn, компьютерное зрение, кластеризация документовШаблон:Sfn, хемометрика, Шаблон:Не переведено 5, рекомендательные системы,Шаблон:SfnШаблон:Sfn и биоинформатикаШаблон:Sfn.

История

В хемометрике неотрицательное матричное разложение имеет долгую историю под названием «метод автомодельного разрешения кривых»Шаблон:Sfn В этом контексте вектора в правой матрице являются непрерывными кривыми, а не дискретными векторами. Ранние работы по неотрицательному матричному разложению были проведены финской группой исследователей в середине 1990-х под названием положительное разложение матрицыШаблон:SfnШаблон:Sfn. Метод стал более широко известен как неотрицательное матричное разложение, после того как Ли и Сын исследовали свойства алгоритма и опубликовали несколько простых полезных алгоритмов для двух видов разложенияШаблон:SfnШаблон:Sfn.

Предпосылки

Пусть матрица Шаблон:Math является произведением матриц Шаблон:Math и Шаблон:Math,

<math>\mathbf{V}=\mathbf{W} \mathbf{H} \,.</math>

Умножение матриц может быть имплементировано через вычисление вектора-столбца матрицы Шаблон:Math как линейной комбинации векторов-столбцов в Шаблон:Math, используя коэффициенты из столбцов матрицы Шаблон:Math. То есть каждый столбец матрицы Шаблон:Math может быть вычислен следующим образом:

<math>\mathbf{v}_i=\mathbf{W} \mathbf{h}_{i} \,,</math>

где Шаблон:Math является Шаблон:Math-ым вектор-столбцом произведения матрицы Шаблон:Math, а Шаблон:Math является Шаблон:Math-ым вектор-столбцом матрицы Шаблон:Math.

При умножении матриц размерности матриц-сомножителей могут быть существенно меньше, чем размерность произведения матриц, и это то свойство, которое подводит базис под НМР. НМР создаёт множители с существенно уменьшенными размерностями по сравнению с исходной матрицей. Например, если Шаблон:Math является Шаблон:Math матрицей, Шаблон:Math является Шаблон:Math матрицей, а Шаблон:Math является Шаблон:Math матрицей, то Шаблон:Math может быть существенно меньше как Шаблон:Math, так и Шаблон:Math.

Вот пример на основе приложения анализа текста:

  • Пусть входная матрица (разлагаемая матрица) будет Шаблон:Math с 10000 строками и 500 столбцами, где слова соответствуют строкам, а документы соответствуют столбцам. То есть у нас есть 500 документов, проиндексированных 10000 словами. Отсюда следует, что вектор-столбец Шаблон:Math в Шаблон:Math представляет документ.
  • Допустим, мы спрашиваем алгоритм найти 10 признаков в порядке образования матрицы признаков Шаблон:Math с 10000 строк и 10 столбцами и матрицу коэффициентов Шаблон:Math с 10 строками и 500 столбцами.
  • Произведение Шаблон:Math и Шаблон:Math является матрицей с 10000 строками и 500 столбцами, те же размеры, что и входная матрица Шаблон:Math и, если разложение работает, оно является приемлемым приближением входной матрицы Шаблон:Math.
  • Из описания умножения матриц выше следует, что каждый столбец в произведении матриц Шаблон:Math является линейной комбинацией 10 вектор-столбцов в матрице признаков Шаблон:Math с коэффициентами, полученными из матрицы Шаблон:Math.

Это последнее свойство является базисом НМР, поскольку мы можем рассматривать каждый оригинальный документ в нашем примере как построенный из небольшого набора скрытых признаков. НМР создаёт эти признаки.

Полезно думать о каждом признаке (вектор-столбце) в матрице признаков Шаблон:Math как о прототипе документа, включающем набор слов, в котором каждая ячейка, соответствующая слову, определяет ранг слова в признаке — чем выше значение в ячейке слова, тем выше ранг слова в признаке. Столбец в матрице коэффициентов Шаблон:Math представляет оригинальный документ со значениями ячеек, определяющих ранг документа для признака. Мы теперь можем восстановить документ (вектор-столбец) из нашей входной матрицы в виде линейной комбинации наших признаков (вектор-столбцов из Шаблон:Math), где каждый признак берётся с весом, определяемым значением признака из вектор-столбца матрицы Шаблон:Math.

Свойство кластеризации

НМР имеет внутреннее свойство кластеризацииШаблон:Sfn, т.е. он автоматически кластеризует столбцы входных данных <math>\mathbf{V}=(v_1, \cdots, v_n) </math>. Это то свойство, которое востребовано большинством приложений НМР.

Более конкретно, приближение <math>\mathbf{V}</math> посредством <math>\mathbf{V} \simeq \mathbf{W}\mathbf{H}</math> достигается минимизацией функции ошибок

<math> \min_{W,H}||V - WH||_F,</math> при условиях <math>W \geqslant 0, H \geqslant 0.</math>

Более того, вычисленная матрица <math> H </math> даёт индикатор кластеров, т.е. если <math>\mathbf{H}_{kj} > 0 </math>, этот факт показывает, что входные данные <math> v_j </math> принадлежат k-му кластеру. Вычисленная же матрица <math>W</math> даёт центры кластеров, т.е. k-ый столбец задаёт центр k-го кластера. Это представление центров может быть существенно улучшено посредством выпуклого НМР.

Если ортогональность <math> H H^T=E </math> не указана явно, ортогональность выполняется достаточно сильно и свойство кластеризации также имеет место. Кластеризация является главной целью большинства приложений НМР для data mining.

Если в качестве функции ошибки используется расстояние Кульбака — Лейблера, НМР идентично вероятностному латентно-семантическому анализу, популярному методу кластеризации документовШаблон:Sfn.

Типы

Приближённое неотрицательное разложение матрицы

Обычно число столбцов матрицы Шаблон:Math и число строк матрицы Шаблон:Math в НМР выбирается так, что произведение Шаблон:Math становится приближением к Шаблон:Math. Полное разложение матрицы Шаблон:Math тогда состоит из двух неотрицательных матриц Шаблон:Math и Шаблон:Math, а также из остаточной матрицы Шаблон:Math, такой, что Шаблон:Math. Элементы остаточной матрицы могут быть и положительными, и отрицательными.

Если Шаблон:Math и Шаблон:Math меньше, чем Шаблон:Math, их проще запомнить и с ними легче работать. Другая причина разложения Шаблон:Math на меньшие матрицы Шаблон:Math и Шаблон:Math заключается в том, что если можно приблизительно представить элементы матрицы Шаблон:Math существенно меньшим количеством данных, то можем заключить о некоторой неявной структуре данных.

Выпуклое неотрицательное разложение матрицы

В стандартном НМР множитель <math>\mathbf{W} \in \R_+^{m \times k}</math>,т.е. матрица Шаблон:Math может быть любой в этом пространстве. Выпуклый НМРШаблон:Sfn ограничивает столбцы матрицы Шаблон:Math до выпуклых комбинаций входных векторов <math> (v_1, \cdots, v_n) </math>. Это существенно улучшает качество представления данных матрицы Шаблон:Math. Более того, множитель Шаблон:Math становится более разрежен и ортогонален.

Разложение неотрицательного ранга

В случае, когда Шаблон:Не переведено 5 матрицы Шаблон:Math равен обычному рангу, Шаблон:Math называется разложением неотрицательного ранга (НРР, Шаблон:Lang-en, NRF)Шаблон:SfnШаблон:SfnШаблон:Sfn. Известно, что задача поиска НРР матрицы Шаблон:Math, если такой существует, NP-труднаШаблон:Sfn.

Различные функции цены и регуляризация

Существуют различные виды неотрицательного разложения матрицы. Различные виды возникают от использования различных функций цены для измерения расхождения между Шаблон:Math и Шаблон:Math и возможной регуляризации матрицы Шаблон:Math и/или матрицы Шаблон:MathШаблон:Sfn.

Две простые функции расхождения, которые изучали Ли и Сын, были квадратичное отклонение (или норма Фробениуса) и расширение понятия расстояния Кульбака — Лейблера на положительные матрицы (изначально расстояние Кульбака — Лейблера было определено для вероятностных распределений). Каждая функция расхождения приводит к своему алгоритму НМР, который обычно минимизирует расхождение с помощью итеративных правил обновления.

Задача разложения в версии функции квадратичной ошибки для НМР может быть сформулирована следующим образом: Если дана матрица <math>\mathbf{V}</math>, нужно найти неотрицательные матрицы W и H, которые минимизируют функцию

<math>F(\mathbf{W},\mathbf{H})=\|\mathbf{V} - \mathbf{WH}\|^2_F</math>

Другой вид НМР для изображений базируется на норме, определяемой полной вариациейШаблон:Sfn.

Если L1 регуляризация (сходная с Шаблон:Не переведено 5, Шаблон:Lang-en) добавлена к НМР с целевой функцией, равной среднему квадрату ошибки, получающаяся задача может быть названа неотрицательным разреженным кодированием ввиду похожести на задачу разреженного кодированияШаблон:SfnШаблон:Sfn, хотя она может упоминаться и под названием НМРШаблон:Sfn.

Онлайн НМР

Многие стандартные НМР алгоритмы анализируют все данные вместе. Т.е. вся матрица доступна с самого начала. Это может оказаться неприемлемым для приложений, в которых данные занимают слишком много памяти, чтобы поместить их все в одновременно, или где данные поступают в виде потока. Такая ситуация характерна для коллаборативной фильтрации в рекомендательных системах, где может имеется много пользователей и много объектов для рекомендации, а пересчитывать всё было бы неэффективно, когда в систему добавляется пользователь или объект. Целевая функция для оптимизации в этих случаях может быть, а может и не быть такой же, как в стандартном НМР, но алгоритмы должны отличаться[1]Шаблон:SfnШаблон:Sfn.

Алгоритмы

Есть несколько способов, каким может быть найдены Шаблон:Math и Шаблон:Math. Шаблон:Не переведено 5 Ли и СынаШаблон:Sfn было популярно ввиду простоты имплементации.

Алгоритм:

Инициализация: Шаблон:Math и Шаблон:Math не отрицательны.
Обновляем значения в Шаблон:Math и Шаблон:Math путём вычисления (здесь <math>n</math> — индекс итерации)
<math> H_{[i,j]}^{n+1} \leftarrow H_{[i,j]}^n \frac{((W^n)^TV)_{[i,j]}}{((W^n)^TW^nH^n)_{[i,j]}}</math>
и
<math> W_{[i,j]}^{n+1} \leftarrow W_{[i,j]}^n \frac{(V(H^{n+1})^T)_{[i,j]}}{(W^nH^{n+1}(H^{n+1})^T)_{[i,j]}}</math>
Пока Шаблон:Math и Шаблон:Math не стабилизируются.

Заметим, что обновление осуществляется поэлементно, не умножением матриц.


Недавно был разработан другой алгоритм. Некоторые подходы базируются на чередуемом Шаблон:Не переведено 5 (МНКНВ) — на каждом шаге такого алгоритма фиксируется сначала Шаблон:Math, а Шаблон:Math ищется с помощью МНКНВ, затем фиксируется Шаблон:Math и теперь находится Шаблон:Math аналогично. Процедуры, используемые для поиска Шаблон:Math и Шаблон:Math, могут быть теми же самыми Шаблон:Sfn или различными, так как некоторые варианты НМР регуляризуют одну из матриц Шаблон:Math или Шаблон:MathШаблон:Sfn. Некоторые подходы включают, среди других, методы проецируемого градиентного спускаШаблон:SfnШаблон:Sfn, Шаблон:Не переведено 5Шаблон:SfnШаблон:Sfn, метод оптимального градиентаШаблон:Sfn и блочный метод главного ведущего элементаШаблон:SfnШаблон:Sfn.

Существующие в настоящее время алгоритмы субоптимальны, поскольку они гарантируют нахождение только локального, а не глобального минимума целевой функции. Доказанные оптимальные алгоритмы в ближайшем будущем вряд ли появятся, поскольку задача, как было показано, обобщает метод k-средних, который, как известно, NP-полонШаблон:Sfn. Однако, как и во многих других задачах анализа данных, знание локального минимума тоже полезно.

Файл:Fractional Residual Variances comparison, PCA and NMF.pdf
Графики относительной остаточной дисперсии (ООД, Шаблон:Lang-en, FRV) для МГК и последовательного НМРШаблон:Sfn. Для МГК теоретические значения получаются из остаточных собственных значений. Для сравнения, кривые ООД для МГК достигают плоского участка, где сигнал не воспринимается эффективно, в то время как кривые НМР ООД снижаются непрерывно, что говорит о лучшей возможности воспринимать сигнал. Кривые ООД для НМР также сходятся к более высоким уровням, чем МГК, что говорит о свойстве меньшей переподгонки метода НМР.

Последовательный НМР

Последовательное построение компонент НМР (Шаблон:Math и Шаблон:Math) было первоначально использовано для связывания НМР с методом главных компонент (МГК) в астрономии[2]. Вклады компонент МГК ранжируются по величине их соответствующих собственных значений. Для НМР его компоненты можно ранжировать эмпирически, если они строятся один за другим (последовательно), т.е. строим <math> (n+1)</math>-ую компоненту с уже построенными первыми <math>n</math> компонентами.

Вклады последовательных компонент НМР можно сравнивать по теореме Карунена — Лоэва с помощью графика собственных значений. Типичный выбор числа компонент в МГК базируется на точке «изгиба», тогда существование плоского участка свидетельствует, что МГК не воспринимает данные эффективно, а если существует неожиданное падение, это говорит о случайном шуме и попадании в режим чрезмерной подгонкиШаблон:SfnШаблон:Sfn. Для последовательного НМР график собственных значений приближается графиком относительной остаточной дисперсии, где кривая убывает непрерывно и сходится к большему значению, чем МГКШаблон:Sfn, что говорит о меньшей чрезмерной подгонке последовательного НМР.

Точный НМР

Точные решения для вариантов НМР могут быть проверены (за полиномиальное время), если выполняются дополнительные ограничения для матрицы Шаблон:Math. Алгоритм полиномиального времени решения неотрицательного рангового разложения, когда матрица Шаблон:Math содержит мономиальную подматрицу с рангом, равным рангу матрицы дали Кэмпбелл и Пул в 1981Шаблон:Sfn. Калофольяс и Галлопоулус (2012)Шаблон:Sfn решили симметричный аналог этой задачи, где Шаблон:Math является симметричной и содержит диагональную главную подматрицу ранга r. Их алгоритм работает за время <math>O(rm^2)</math> в плотном случае. Арора с группой исследователей предложили алгоритм полиномиального времени для точного НМР, который работает в случае, когда один из множителей W удовлетворяет условию отделимостиШаблон:Sfn.

Связь с другими техниками

В статье Изучение частей объектов путём неотрицательных разложений матрицы Ли и Сын Шаблон:Sfn предложили НМР главным образом для основанного на частях разложения изображений. В статье НМР сравнивается с векторным квантованием и методом главных компонент и показывается, что, хотя эти три техники могут быть записаны как разложения, они воспринимают различные ограничения, а потому дают различные результаты.

Файл:Restricted Boltzmann machine.svg
НМР как вероятностная графическая модель — видимые — видимые единицы (Шаблон:Math) связаны со скрытыми единицами (Шаблон:Math) посредством весов Шаблон:Math, так что Шаблон:Math Шаблон:Не переведено 5 распределением вероятностей со средним <math>\sum_a W_{ia}h_a</math>Шаблон:Sfn.

Позднее было показано, что некоторые типы НМР являются экземплярами более общей вероятностной модели, называемой «мультиномиальной МГК»Шаблон:Sfn. Если НМР получено путём минимизации расстояния Кульбака — Лейблера, это, фактически, эквивалентно другому экземпляру мультиномильной МГК, вероятностному латентно-семантическому анализуШаблон:Sfn, настроенному с помощью оценки максимального правдоподобия. Этот метод обычно используется для анализа и кластеризации текстовых данных и он связан также с Шаблон:Не переведено 5.

НМР с целевой функцией метода наименьших квадратов эквивалентен ослабленной форме метода k-средних — матричный множитель Шаблон:Math содержит центроиды кластеров, а Шаблон:Math содержит индикаторы принадлежности кластерам Шаблон:SfnШаблон:Sfn. Это даёт теоретическое обоснование для применения НМР для кластеризации данных. Однако k-средние не обеспечивают неотрицательности на центроидах, так что наиболее близкой аналогией является, фактически, «полу-НМР»Шаблон:Sfn.

НМР можно рассматривать как двухуровневую ориентированную графическую модель с одним уровнем наблюдаемых случайных переменных и одним уровнем скрытых случайных переменныхШаблон:Sfn.

НМР можно расширить с матриц до тензоров произвольного порядкаШаблон:SfnШаблон:SfnШаблон:Sfn. Это расширение можно рассматривать как неотрицательный аналог, например, модели Шаблон:Не переведено 5.

Другие расширения НМР включают совместное разложение нескольких матриц и тензоров, где некоторые сомножители одинаковы. Такие модели полезны для сочетания датчиков и обучению связямШаблон:Sfn.

НМР является экземпляром неотрицательного квадратичного программирования (НКП), точно так же, как и метод опорных векторов (МОВ). Однако МОВ и НМР связаны более тесно, чем просто через НКП, что позволяет прямое применение алгоритмов, разработанных для решений любого из двух методов, к задачам обоих областейШаблон:Sfn.

Единственность

Разложение не единственно — матрица и её обратная могут быть использованы для преобразования двух матриц разложения посредством, например,Шаблон:Sfn,

<math>\mathbf{WH}=\mathbf{WBB}^{-1}\mathbf{H}</math>

Если две новые матрицы <math>\mathbf{\tilde{W}=WB}</math> и <math>\mathbf{\tilde{H}}=\mathbf{B}^{-1}\mathbf{H}</math> неотрицательны, они образуют другую параметризацию разложения.

Неотрицательность <math>\mathbf{\tilde{W}}</math> и <math>\mathbf{\tilde{H}}</math> следует, если, по меньшей мере, Шаблон:Math является неотрицательной Шаблон:Не переведено 5. В этом простом случае она соответствует просто масштабированию и перестановке.

Дополнительный контроль над неоднозначностью НМР приобретается ограничением заполненности матриц Шаблон:Sfn.

Приложения

Астрономия

В астрономии НМР является многообещающим методом для понижения размерности в смысле, что астрофизические сигналы являются неорицательными. НМР применяется для спектроскопических наблюдений Шаблон:Sfn и прямых наблюденийШаблон:Sfn как метод изучения общих свойств астрономического объекта и постобработки астрономических наблюдений. Продвижение в спектроскопических наблюдениях исследователей Блэнтона и Роуиза (2007)Шаблон:Sfn связано с принятием во внимание неопределённости астрономических наблюдений, что позднее улучшил Зу (2016) [2], который рассматривал также отсутствие данных и использовал параллельные вычисления. Их методы затем приспособили Рен и др. (2018) Шаблон:Sfn для прямого поля наблюдения как один из методов обнаружения экзопланет, особенно для прямого наблюдения околозвёздных дисков.

Рен и др. (2018)Шаблон:Sfn смогли показать стабильность компонент НМР, когда они строятся последовательно (т.е. одна за другой), что обеспечивает линейность процесса моделирования НМР. Свойство линейности использовалось для отделения света звезды от рассеянного света экзопланет и околозвёздных дисков.

При прямом наблюдении для выделения тусклых экзопланет и околозвёздных дисков от окружающего звезду яркого света, который имеет типичную контрастность от 10⁵ до 10¹⁰, были приспособлены различные статистические методы Шаблон:SfnШаблон:SfnШаблон:Sfn, однако выделение света от экзопланет или околозвёздных дисков обычно страдает переподгонкой, так что для обнаружения истинного течения должно быть применено последующее моделированиеШаблон:SfnШаблон:Sfn. Моделирование на настоящее время оптимизировано для точечных источников Шаблон:Sfn, но не для структур с нерегулярными формами, такими как s околозвёздные диски. В этой ситуации НМР является отличным методом, менее страдающим от переподгонки в смысле неотрицательности и разреженности коэффициентов моделирования НМР, поэтому моделирование может быть осуществлено с несколькими масштабирующими множителямиШаблон:Sfn вместо вычислительно ёмкой переобработки данных на полученных моделях.

Интеллектуальный анализ текста

НМР может быть использована для интеллектуального анализа текста. В этом процессе строится терм-документная матрица с весами различных объектов (обычно — взвешенная информация о частоте встречаемости слов) из набора документов. Матрица разлагается на матрицы объект-признак и признак-документ. Признаки получаются из контекста документов, а матрица признак-документ описывает кластеры данных связанных документов.

Одно из приложений использует иерархический НМР на небольшом подмножестве научных абстракций из PubMedШаблон:Sfn. Другая группа исследователей сгруппировала множество email компании Enron Шаблон:Sfn (65033 сообщений и 91133 объектов) в 50 кластеровШаблон:Sfn. НМР применяется также для данных о цитировании, с одним примером кластеризации статей английской Википедии и научных журналов, основываясь на научных цитатах в английской ВикипедииШаблон:Sfn.

Арора и др. предложили алгоритмы полиномиального времени для обучения тематических моделей с помощью НМР. Алгоритм предполагает, что тематическая матрица удовлетворяет условию отделимости, что часто выполняется в таких условияхШаблон:Sfn.

Спектральный анализ данных

НМР используется также в анализе спектральных данных. Одно из таких применений — классификация межпланетных объектов и обломковШаблон:Sfn.

Предсказание масштабируемого сетевого расстояния

НМР используется в предсказании масштабируемого сетевого расстояния в интернете (время оборота пакета). Для сети с <math>N</math> хостами с помощью НМР расстояния всех <math>N^2</math> соединений от точки до точки могут быть предсказаны после проведения лишь <math>O(N)</math> измерений. Этот вид метода был впервые предложен в «Сервисе оценки интернет-расстояния» (Шаблон:Lang-en, IDES)Шаблон:Sfn. Впоследствии, как полностью децентрализованный подход, была предложена сетевая координатная система Phoenix (Шаблон:Lang-en)Шаблон:Sfn. Она достигла лучшей предсказуемости путём введения концепции веса.

Удаление нестационарного шума из разговора

Удаление шума из разговора является давней проблемой в Шаблон:Не переведено 5. Есть большое число алгоритмов удаления шума, если шум стационарен. Например, фильтр Винера пригоден для аддитивного гауссова шума. Однако, если шум не стационарен, классические алгоритмы удаления шума обычно имеют плохую производительность, поскольку статистическую информацию о нестационарном шуме трудно оценить. Шмидт и др.Шаблон:Sfn использовали НМР для удаления нестационарного шума в разговоре, что полностью отличается от классических статистических подходов. Ключевой идеей является то, что чистый сигнал может быть представлен словарём разговора, а нестационарный шум представлен быть не может. Аналогично, нестационарный шум может быть представлен словарём шумов, а разговор не может.

Алгоритм для удаления шума с помощью НМР работает следующим образом. Необходимо обучить офлайн два словаря, один для разговора, другой для шума. Как только подаётся разговор с шумом, сначала вычисляем величину оконного преобразования Фурье. Затем разделяем его на две части с помощью НМР, одна часть может быть представлена словарём разговора, а другая часть может быть представлена словарём шума. На третьем шаге часть, представленная словарём разговора, оценивается как чистый разговор.

Биоинформатика

НМР успешно применяется в биоинформатике для кластеризации данных экспрессии генов и метилирования ДНК и поиска генов, наиболее представляющих кластерыШаблон:SfnШаблон:SfnШаблон:SfnШаблон:Sfn. В анализе мутаций рака это используется для выделения общих механизмов возникновения мутации, которые случаются во многих случаях рака и, возможно, имеют различные причины Шаблон:Sfn.

Радионуклидная визуализация

НМР, упоминаемый в этой области как факторный анализ, используется здесь с 1980-ых годовШаблон:Sfn для анализа последовательности изображений в ОФЭКТ и ПЭТ. Неоднозначность НМР решалась наложением ограничения разреженностиШаблон:Sfn.

Текущие исследования

Текущие исследования (с 2010 года) по разложению неотрицательных матриц включают, но не ограничиваются следующими вопросами

  1. Алгоритмические вопросы: поиск глобального минимума множителей и инициализация множителяШаблон:Sfn.
  2. Вопросы масштабирования: как разложить матрицы размером миллион-на-миллиард, которые возникают при анализе данных в сетях. См. статьи «Распределённое неотрицательное разложение матрицы (DNMF)»Шаблон:Sfn и «Масшабируемое неотрицательное разложение матрицы (ScalableNMF)»Шаблон:Sfn.
  3. Онлайн-обработка: как обновлять разложение, когда приходят новые данные, без полного вычисления с нуляШаблон:Sfn.
  4. Совместное разложение: разложение нескольких внутренне связанных матриц для многопозиционной кластеризации, см. CoNMFШаблон:Sfn и MultiNMFШаблон:Sfn.
  5. Задача Коэна и Ротблюма 1993 года: всегда ли рациональная матрица имеет НМР минимальной внутренней размерности, множители которой также рациональны. Недавно на этот вопрос был получен отрицательный ответ[3].

См. также

Примечания

Шаблон:Примечания

Литература

Шаблон:Refbegin

Дополнительная литература

Шаблон:Refend Шаблон:Машинное обучение

Шаблон:Rq