Матрица онлайн метод гаусса: Онлайн калькулятор. Решение систем линейных уравнений. Метод Гаусса.

Содержание

Решение СЛАУ 4-ого порядка методом Гаусса, пример № 2

СЛАУ 3-его порядка: 1 – 2 – 3 – 4 – 5 – 6 – 7 – 8 – 9 – 10 – 11 – 12
СЛАУ 4-ого порядка: 1 – 2 – 3 – 4 – 5 – 6 – 7 – 8 – 9 – 10 – 11 – 12


Условие

 3x 1 + 3x 2 + 6x 3 + 3x 4   =   6
 3x 1 + x 2 + 5x 3 + x 4   =   2
 2x 1 + x 2 + 4x 3 + 2x 4   =   1
 x 1 + 3x 2 + 3x 3 + 2x 4   =   6

Решение системы линейных алгебраических уравнений методом Гаусс

Для проверки ответов можете воспользоваться нашим онлайн сервисом – Решение системы линейных уравнений методом Гаусса. Все действия описанные в данном разделе не противоречат правилам обращения с матрицами и являются элементарными преобразованиями матрицы. Если после изучения примеров решения задач у Вас останутся вопросы, то Вы всегда можете задать их на форуме, и не забывайте про наши онлайн калькуляторы для решения задач по геометрии и другим предметам!

Перепишем систему линейных алгебраических уравнений в матричную форму. Получится матрица 4 × 5, слева от разделительной линии стоят коэффициенты при переменных, а справа стоят свободные члены.


Проведём следующие действия:

  • Строку № 1 поделим на 3 (Строка 1 = строка 1 / 3)

Получим:

Проведём следующие действия:

  • Из строки № 2 вычтем строку № 1 умноженную на 3 (Строка 2 – 3 × строка 1)
  • Из строки № 3 вычтем строку № 1 умноженную на 2 (Строка 3 – 2 × строка 1)
  • Из строки № 4 вычтем строку № 1 (Строка 4 – строка 1)

Получим:

Проведём следующие действия:

  • Строку № 3 поделим на -1 (Строка 3 = строка 3 / -1)
  • Поменяем местами строку № 2 и строку № 3

Получим:

Проведём следующие действия:

  • К строке № 3 прибавим строку № 2 умноженную на 2 (Строка 3 + 2 × строка 2)
  • Из строки № 4 вычтем строку № 2 умноженную на 2 (Строка 4 – 2 × строка 2)

Получим:

Проведём следующие действия:

  • К строке № 4 прибавим строку № 3 (
    Строка 4 + строка 3
    )
  • Строку № 4 умножим на -1 (Строка 4 = строка 4 * -1)

Получим:

Проведём следующие действия:

  • К строке № 3 прибавим строку № 4 умноженную на 2 (Строка 3 + 2 × строка 4)
  • Из строки № 1 вычтем строку № 4 (Строка 1 – строка 4)

Получим:

Проведём следующие действия:

  • К строке № 1 прибавим строку № 3 умноженную на 2 (
    Строка 1 + 2 × строка 3
    )
  • Из строки № 1 вычтем строку № 2 (Строка 1 – строка 2)
  • Строку № 3 умножим на -1 (Строка 3 = строка 3 * -1)

Получим:

В левой части матрицы по главной диагонали остались одни единицы. В правом столбце получаем решение:
х1 = 3
х2 = 3
х3 = -2
х4 = 0


Вы поняли, как решать? Нет?

Помощь с решением

Решить систему уравнений через матрицу онлайн. Обратная матрица

Матричный метод решения СЛАУ применяют к решению систем уравнений, у которых количество уравнений соответствует количеству неизвестных. Метод лучше применять для решения систем низкого порядка. Матричный метод решения систем линейных уравнений основывается на применении свойств умножения матриц.

Этот способ, другими словами метод обратной матрицы, называют так, так как решение сводится к обычному матричному уравнению, для решения которого нужно найти обратную матрицу.

Матричный метод решения СЛАУ с определителем, который больше или меньше нуля состоит в следующем:

Предположим, есть СЛУ (система линейных уравнений) с n неизвестными (над произвольным полем):

Значит, её легко перевести в матричную форму:

AX=B , где A — основная матрица системы, B и X — столбцы свободных членов и решений системы соответственно:

Умножим это матричное уравнение слева на A −1 — обратную матрицу к матрице A: A −1 (AX)=A −1 B.

Т.к. A −1 A=E , значит, X=A −1 B . Правая часть уравнения дает столбец решений начальной системы. Условием применимости матричного метода есть невырожденность матрицы A . Необходимым и достаточным условием этого есть неравенство нулю определителя матрицы A :

detA≠0.

Для однородной системы линейных уравнений

, т.е. если вектор B=0 , выполняется обратное правило: у системы AX=0 есть нетривиальное (т.е. не равное нулю) решение лишь когда detA=0 . Эта связь между решениями однородных и неоднородных систем линейных уравнений называется альтернатива Фредгольма.

Т.о., решение СЛАУ матричным методом производится по формуле . Либо, решение СЛАУ находят при помощи обратной матрицы A −1 .

Известно, что у квадратной матрицы А порядка n на n есть обратная матрица A −1 только в том случае, если ее определитель ненулевой. Таким образом, систему n линейных алгебраических уравнений с

n неизвестными решаем матричным методом только в случае, если определитель основной матрицы системы не равен нулю.

Не взирая на то, что есть ограничения возможности применения такого метода и существуют сложности вычислений при больших значениях коэффициентов и систем высокого порядка, метод можно легко реализовать на ЭВМ.

Пример решения неоднородной СЛАУ.

Для начала проверим, не равен ли нулю определитель матрицы коэффициентов у неизвестных СЛАУ.

Теперь находим союзную матрицу , транспонируем её и подставляем в формулу для определения обратной матрицы.

Подставляем переменные в формулу:

Теперь находим неизвестные, перемножая обратную матрицу и столбик свободных членов.

Итак, x=2; y=1; z=4.

При переходе от обычного вида СЛАУ к матричной форме будьте внимательными с порядком неизвестных переменных в уравнениях системы. Например :

НЕЛЬЗЯ записать как:

Необходимо, для начала, упорядочить неизвестные переменные в кадом уравнении системы и только после этого переходить к матричной записи:

Кроме того, нужно быть внимательными с обозначением неизвестных переменных, вместо x 1 , x 2 , …, x n могут оказаться другие буквы. К примеру :

в матричной форме записываем так:

Матричным методом лучше решать системы линейных уравнений, в которых количество уравнений совпадает с числом неизвестных переменных и определитель основной матрицы системы не равен нулю. Когда в системе более 3-х уравнений, на нахождение обратной матрицы потребуется больше вычислительных усилий, поэтому, в этом случае целесообразно использовать для решения метод Гаусса.

Метод обратной матрицы – эточастный случай матричного уравнения

Решить систему с матричным методом

Решение : Запишем систему в матричной форме.Решение системы найдем по формуле (см.последнюю формулу)

Обратную матрицу найдем по формуле:
, где – транспонированная матрица алгебраических дополнений соответствующих элементов матрицы .

Сначала разбираемся с определителем:

Здесь определитель раскрыт по первой строке.

Внимание! Если, то обратной матрицы не существует, и решить систему матричным методом невозможно. В этом случае система решаетсяметодом исключение неизвестных (методом Гаусса).

Теперь нужно вычислить 9 миноров и записать их в матрицу миноров

Справка: Полезно знать смысл двойных подстрочных индексов в линейной алгебре. Первая цифра – это номер строки, в которой находится данный элемент. Вторая цифра – это номер столбца, в котором находится данный элемент:

То есть, двойной подстрочный индекс указывает, что элемент находится в первой строке, третьем столбце, а, например, элемент находится в 3 строке, 2 столбце

В ходе решения расчет миноров лучше расписать подробно, хотя, при определенном опыте их можно приноровиться считать с ошибками устно.






Порядок расчета миноров совершенно не важен, здесь я их вычислил слева направо по строкам. Можно было рассчитать миноры по столбцам (это даже удобнее).

Таким образом:

– матрица миноров соответствующих элементов матрицы .

– матрица алгебраических дополнений.

– транспонированная матрица алгебраических дополнений.

Повторюсь, выполненные шаги мы подробно разбирали на уроке Как найти обратную матрицу?

Теперь записываем обратную матрицу:

Ни в коем случае не вносимв матрицу, это серьезно затруднит дальнейшие вычисления . Деление нужно было бы выполнить, если бы все числа матрицы делились на 60 без остатка. А вот внести минус в матрицу в данном случае очень даже нужно, это, наоборот – упростит дальнейшие вычисления.

Осталось провести матричное умножение. Умножать матрицы можно научиться на урокеДействия с матрицами . Кстати, там разобран точно такой же пример.

Обратите внимание, что деление на 60 выполняется в последнюю очередь .
Иногда может и не разделиться нацело, т.е. могут получиться «плохие» дроби. Что в таких случаях делать, я уже рассказал, когда мы разбирали правило Крамера.

Ответ :

Пример 12

Решить систему с помощью обратной матрицы.

Это пример для самостоятельного решения (образец чистового оформления и ответ в конце урока).

Наиболее универсальным способом решения системы является метод исключения неизвестных (метод Гаусса) . Доступно объяснить алгоритм не так-то просто, но я старался!.

Желаю успехов!

Ответы:

Пример 3:

Пример 6:

Пример 8: , . Вы можете посмотреть или скачать образец решения данного примера (ссылка ниже).

Примеры 10, 12:

Продолжаем рассматривать системы линейных уравнений. Этот урок является третьим по теме. Если Вы смутно представляете, что такое система линейных уравнений вообще, чувствуете себя чайником, то рекомендую начать с азов на странице Далее полезно изучить урок .

Метод Гаусса – это просто! Почему? Известный немецкий математик Иоганн Карл Фридрих Гаусс еще при жизни получил признание величайшего математика всех времен, гения и даже прозвище «короля математики». А всё гениальное, как известно – просто! Кстати, на деньги попадают не только лохи, но еще и гении – портрет Гаусса красовался на купюре в 10 дойчмарок (до введения евро), и до сих пор Гаусс загадочно улыбается немцам с обычных почтовых марок.

Метод Гаусса прост тем, что для его освоения ДОСТАТОЧНО ЗНАНИЙ ПЯТИКЛАССНИКА.Необходимо уметь складывать и умножать! Не случайно метод последовательного исключения неизвестных преподаватели часто рассматривают на школьных математических факультативах. Парадокс, но у студентов метод Гаусса вызывает наибольшие сложности. Ничего удивительного – всё дело в методике, и я постараюсь в доступной форме рассказать об алгоритме метода.

Сначала немного систематизируем знания о системах линейных уравнений. Система линейных уравнений может:

1) Иметь единственное решение.
2) Иметь бесконечно много решений.
3) Не иметь решений (быть несовместной ).

Метод Гаусса – наиболее мощный и универсальный инструмент для нахождения решениялюбой системы линейных уравнений. Как мы помним, правило Крамера и матричный метод непригодны в тех случаях, когда система имеет бесконечно много решений или несовместна. А метод последовательного исключения неизвестных в любом случае приведет нас к ответу! На данном уроке мы опять рассмотрим метод Гаусса для случая №1 (единственное решение системы), под ситуации пунктов №№2-3 отведена статья. Замечу, что сам алгоритм метода во всех трёх случаях работает одинаково.

Вернемся к простейшей системе с урока Как решить систему линейных уравнений?
и решим ее методом Гаусса.

На первом этапе нужно записать расширенную матрицу системы :
. По какому принципу записаны коэффициенты, думаю, всем видно. Вертикальная черта внутри матрицы не несёт никакого математического смысла – это просто отчеркивание для удобства оформления.

Справка: рекомендую запомнить термины линейной алгебры. Матрица системы – это матрица, составленная только из коэффициентов при неизвестных, в данном примере матрица системы: . Расширенная матрица системы – это та же матрица системы плюс столбец свободных членов, в данном случае: . Любую из матриц можно для краткости называть просто матрицей.

После того, как расширенная матрица система записана, с ней необходимо выполнить некоторые действия, которые также называются элементарными преобразованиями .

Существуют следующие элементарные преобразования:

1) Строки матрицы можно переставлять местами. Например, в рассматриваемой матрице можно безболезненно переставить первую и вторую строки:

2) Если в матрице есть (или появились) пропорциональные (как частный случай – одинаковые) строки, то следует удалить из матрицы все эти строки кроме одной. Рассмотрим, например матрицу . В данной матрице последние три строки пропорциональны, поэтому достаточно оставить только одну из них: .

3) Если в матрице в ходе преобразований появилась нулевая строка, то ее также следуетудалить . Рисовать не буду, понятно, нулевая строка – это строка, в которой одни нули .

4) Строку матрицы можно умножить (разделить) на любое число, отличное от нуля . Рассмотрим, например, матрицу . Здесь целесообразно первую строку разделить на –3, а вторую строку – умножить на 2: . Данное действие очень полезно, поскольку упрощает дальнейшие преобразования матрицы.

5) Это преобразование вызывает наибольшие затруднения, но на самом деле ничего сложного тоже нет. К строке матрицы можно прибавить другую строку, умноженную на число , отличное от нуля. Рассмотрим нашу матрицу из практического примера: . Сначала я распишу преобразование очень подробно. Умножаем первую строку на –2: , и ко второй строке прибавляем первую строку умноженную на –2 : . Теперь первую строку можно разделить «обратно» на –2: . Как видите, строка, которую ПРИБАВЛЯЛИ не изменилась . Всегда меняется строка, К КОТОРОЙ ПРИБАВЛЯЮТ .

На практике так подробно, конечно, не расписывают, а пишут короче:

Еще раз: ко второй строке прибавили первую строку, умноженную на –2 . Умножают строку обычно устно или на черновике, при этом мысленный ход расчётов примерно такой:

«Переписываю матрицу и переписываю первую строку: »

«Сначала первый столбец. Внизу мне нужно получить ноль. Поэтому единицу вверху умножаю на –2: , и ко второй строке прибавляю первую: 2 + (–2) = 0. Записываю результат во вторую строку: »

«Теперь второй столбец. Вверху –1 умножаю на –2: . Ко второй строке прибавляю первую: 1 + 2 = 3. Записываю результат во вторую строку: »

«И третий столбец. Вверху –5 умножаю на –2: . Ко второй строке прибавляю первую: –7 + 10 = 3. Записываю результат во вторую строку: »

Пожалуйста, тщательно осмыслите этот пример и разберитесь в последовательном алгоритме вычислений, если вы это поняли, то метод Гаусса практически «в кармане». Но, конечно, над этим преобразованием мы еще поработаем.

Элементарные преобразования не меняют решение системы уравнений

! ВНИМАНИЕ: рассмотренные манипуляции нельзя использовать , если Вам предложено задание, где матрицы даны «сами по себе». Например, при «классических» действиях с матрицами что-то переставлять внутри матриц ни в коем случае нельзя!

Вернемся к нашей системе . Она уже почти решена.

Запишем расширенную матрицу системы и с помощью элементарных преобразований приведем ее к ступенчатому виду :

(1) Ко второй строке прибавили первую строку, умноженную на –2. Кстати, почему первую строку умножаем именно на –2? Для того чтобы внизу получить ноль, а значит, избавиться от одной переменной во второй строке.

(2) Делим вторую строку на 3.

Цель элементарных преобразований привести матрицу к ступенчатому виду: . В оформлении задания прямо так и отчеркивают простым карандашом «лестницу», а также обводят кружочками числа, которые располагаются на «ступеньках». Сам термин «ступенчатый вид» не вполне теоретический, в научной и учебной литературе он часто называется трапециевидный вид или треугольный вид .

В результате элементарных преобразований получена эквивалентная исходной система уравнений:

Теперь систему нужно «раскрутить» в обратном направлении – снизу вверх, этот процесс называется обратным ходом метода Гаусса .

В нижнем уравнении у нас уже готовый результат: .

Рассмотрим первое уравнение системы и подставим в него уже известное значение «игрек»:

Рассмотрим наиболее распространенную ситуацию, когда методом Гаусса требуется решить систему трёх линейных уравнений с тремя неизвестными.

Пример 1

Решить методом Гаусса систему уравнений:

Запишем расширенную матрицу системы:

Сейчас я сразу нарисую результат, к которому мы придём в ходе решения:

И повторюсь, наша цель – с помощью элементарных преобразований привести матрицу к ступенчатому виду. С чего начать действия?

Сначала смотрим на левое верхнее число:

Почти всегда здесь должна находиться единица . Вообще говоря, устроит и –1 (а иногда и другие числа), но как-то так традиционно сложилось, что туда обычно помещают единицу. Как организовать единицу? Смотрим на первый столбец – готовая единица у нас есть! Преобразование первое: меняем местами первую и третью строки:

Теперь первая строка у нас останется неизменной до конца решения . Уже легче.

Единица в левом верхнем углу организована. Теперь нужно получить нули вот на этих местах:

Нули получаем как раз с помощью «трудного» преобразования. Сначала разбираемся со второй строкой (2, –1, 3, 13). Что нужно сделать, чтобы на первой позиции получить ноль? Нужно ко второй строке прибавить первую строку, умноженную на –2 . Мысленно или на черновике умножаем первую строку на –2: (–2, –4, 2, –18). И последовательно проводим (опять же мысленно или на черновике) сложение, ко второй строке прибавляем первую строку, уже умноженную на –2 :

Результат записываем во вторую строку:

Аналогично разбираемся с третьей строкой (3, 2, –5, –1). Чтобы получить на первой позиции ноль, нужно к третьей строке прибавить первую строку, умноженную на –3 . Мысленно или на черновике умножаем первую строку на –3: (–3, –6, 3, –27). И к третьей строке прибавляем первую строку, умноженную на –3 :

Результат записываем в третью строку:

На практике эти действия обычно выполняются устно и записываются в один шаг:

Не нужно считать всё сразу и одновременно . Порядок вычислений и «вписывания» результатов последователен и обычно такой: сначала переписываем первую строку, и пыхтим себе потихонечку – ПОСЛЕДОВАТЕЛЬНО иВНИМАТЕЛЬНО :

А мысленный ход самих расчётов я уже рассмотрел выше.

В данном примере это сделать легко, вторую строку делим на –5 (поскольку там все числа делятся на 5 без остатка). Заодно делим третью строку на –2, ведь чем меньше числа, тем проще решение:

На заключительном этапе элементарных преобразований нужно получить еще один ноль здесь:

Для этого к третьей строке прибавляем вторую строку, умноженную на –2 :

Попробуйте разобрать это действие самостоятельно – мысленно умножьте вторую строку на –2 и проведите сложение.

Последнее выполненное действие – причёска результата, делим третью строку на 3.

В результате элементарных преобразований получена эквивалентная исходной система линейных уравнений:

Круто.

Теперь в действие вступает обратный ход метода Гаусса. Уравнения «раскручиваются» снизу вверх.

В третьем уравнении у нас уже готовый результат:

Смотрим на второе уравнение: . Значение «зет» уже известно, таким образом:

И, наконец, первое уравнение: . «Игрек» и «зет» известны, дело за малым:

Ответ:

Как уже неоднократно отмечалось, для любой системы уравнений можно и нужно сделать проверку найденного решения, благо, это несложно и быстро.

Пример 2


Это пример для самостоятельного решения, образец чистового оформления и ответ в конце урока.

Следует отметить, что ваш ход решения может не совпасть с моим ходом решения, и это – особенность метода Гаусса . Но вот ответы обязательно должны получиться одинаковыми!

Пример 3

Решить систему линейных уравнений методом Гаусса

Запишем расширенную матрицу системы и с помощью элементарных преобразований приведем ее к ступенчатому виду:

Смотрим на левую верхнюю «ступеньку». Там у нас должна быть единица. Проблема состоит в том, что в первом столбце единиц нет вообще, поэтому перестановкой строк ничего не решить. В таких случаях единицу нужно организовать с помощью элементарного преобразования. Обычно это можно сделать несколькими способами. Я поступил так: (1) К первой строке прибавляем вторую строку, умноженную на –1 . То есть, мысленно умножили вторую строку на –1 и выполнили сложение первой и второй строки, при этом вторая строка у нас не изменилась.

Теперь слева вверху –1, что нас вполне устроит. Кто хочет получить +1, может выполнить дополнительное телодвижение: умножить первую строку на –1 (сменить у неё знак).

(2) Ко второй строке прибавили первую строку, умноженную на 5. К третьей строке прибавили первую строку, умноженную на 3.

(3) Первую строку умножили на –1, в принципе, это для красоты. У третьей строки также сменили знак и переставили её на второе место, таким образом, на второй «ступеньке у нас появилась нужная единица.

(4) К третьей строке прибавили вторую строку, умноженную на 2.

(5) Третью строку разделили на 3.

Скверным признаком, который свидетельствует об ошибке в вычислениях (реже – об опечатке), является «плохая» нижняя строка. То есть, если бы у нас внизу получилось что-нибудь вроде , и, соответственно, , то с большой долей вероятности можно утверждать, что допущена ошибка в ходе элементарных преобразований.

Заряжаем обратный ход, в оформлении примеров часто не переписывают саму систему, а уравнения «берут прямо из приведенной матрицы». Обратный ход, напоминаю, работает, снизу вверх:
Да тут подарок получился:

Ответ: .

Пример 4

Решить систему линейных уравнений методом Гаусса

Это пример для самостоятельного решения, он несколько сложнее. Ничего страшного, если кто-нибудь запутается. Полное решение и образец оформления в конце урока. Ваше решение может отличаться от моего решения.

В последней части рассмотрим некоторые особенности алгоритма Гаусса.
Первая особенность состоит в том, что иногда в уравнениях системы отсутствуют некоторые переменные, например:

Как правильно записать расширенную матрицу системы? Об этом моменте я уже рассказывал на уроке Правило Крамера. Матричный метод . В расширенной матрице системы на месте отсутствующих переменных ставим нули:

Кстати, это довольно легкий пример, поскольку в первом столбце уже есть один ноль, и предстоит выполнить меньше элементарных преобразований.

Вторая особенность состоит вот в чём. Во всех рассмотренных примерах на «ступеньки» мы помещали либо –1, либо +1. Могут ли там быть другие числа? В ряде случаев могут. Рассмотрим систему: .

Здесь на левой верхней «ступеньке» у нас двойка. Но замечаем тот факт, что все числа в первом столбце делятся на 2 без остатка – и другая двойка и шестерка. И двойка слева вверху нас устроит! На первом шаге нужно выполнить следующие преобразования: ко второй строке прибавить первую строку, умноженную на –1; к третьей строке прибавить первую строку, умноженную на –3. Таким образом, мы получим нужные нули в первом столбце.

Или еще такой условный пример: . Здесь тройка на второй «ступеньке» тоже нас устраивает, поскольку 12 (место, где нам нужно получить ноль) делится на 3 без остатка. Необходимо провести следующее преобразование: к третьей строке прибавить вторую строку, умноженную на –4, в результате чего и будет получен нужный нам ноль.

Метод Гаусса универсален, но есть одно своеобразие. Уверенно научиться решать системы другими методами (методом Крамера, матричным методом) можно буквально с первого раза – там очень жесткий алгоритм. Но вот чтобы уверенно себя чувствовать в методе Гаусса, следует «набить руку», и прорешать хотя бы 5-10 десять систем. Поэтому поначалу возможны путаница, ошибки в вычислениях, и в этом нет ничего необычного или трагического.

Дождливая осенняя погода за окном…. Поэтому для всех желающих более сложный пример для самостоятельного решения:

Пример 5

Решить методом Гаусса систему 4-х линейных уравнений с четырьмя неизвестными.

Такое задание на практике встречается не так уж и редко. Думаю, даже чайнику, который обстоятельно изучил эту страницу, интуитивно понятен алгоритм решения такой системы. Принципиально всё так же – просто действий больше.

Случаи, когда система не имеет решений (несовместна) или имеет бесконечно много решений, рассмотрены на уроке Несовместные системы и системы с общим решением . Там же можно закрепить рассмотренный алгоритм метода Гаусса.

Желаю успехов!

Решения и ответы:

Пример 2: Запишем расширенную матрицу системы и с помощью элементарных преобразований приведем ее к ступенчатому виду.

Выполненные элементарные преобразования:
(1) Ко второй строке прибавили первую строку, умноженную на –2. К третьей строке прибавили первую строку, умноженную на –1. Внимание! Здесь может возникнуть соблазн из третьей строки вычесть первую, крайне не рекомендую вычитать – сильно повышается риск ошибки. Только складываем!
(2) У второй строки сменили знак (умножили на –1). Вторую и третью строки поменяли местами. Обратите внимание , что на «ступеньках» нас устраивает не только единица, но еще и –1, что даже удобнее.
(3) К третьей строке прибавили вторую строку, умноженную на 5.
(4) У второй строки сменили знак (умножили на –1). Третью строку разделили на 14.

Обратный ход:


Ответ: .

Пример 4: Запишем расширенную матрицу системы и с помощью элементарных преобразований приведем ее к ступенчатому виду:

Выполненные преобразования:
(1) К первой строке прибавили вторую. Таким образом, организована нужная единица на левой верхней «ступеньке».
(2) Ко второй строке прибавили первую строку, умноженную на 7. К третьей строке прибавили первую строку, умноженную на 6.

Со второй «ступенькой» всё хуже , «кандидаты» на неё – числа 17 и 23, а нам нужна либо единичка, либо –1. Преобразования (3) и (4) будут направлены на получение нужной единицы

(3) К третьей строке прибавили вторую, умноженную на –1.
(4) Ко второй строке прибавили третью, умноженную на –3.
Нужная вещь на второй ступеньке получена .
(5) К третьей строке прибавили вторую, умноженную на 6.
(6) Вторую строку умножили на –1, третью строку разделили на -83. .Очевидно, что плоскость однозначно определяется тремя различными точками, не лежащими на одной прямой. Поэтому достаточно популярны трёхбуквенные обозначения плоскостей – по принадлежащим им точкам, например, ; .Если свободные члены

В первой части мы рассмотрели немного теоретического материала, метод подстановки, а также метод почленного сложения уравнений системы. Всем, кто зашел на сайт через эту страницу рекомендую ознакомиться с первой частью. Возможно, некоторым посетителям покажется материал слишком простым, но по ходу решения систем линейных уравнений я сделал ряд очень важных замечаний и выводов, касающихся решения математических задач в целом.

А сейчас мы разберём правило Крамера, а также решение системы линейных уравнений с помощью обратной матрицы (матричный метод). Все материалы изложены просто, подробно и понятно, практически все читатели смогут научиться решать системы вышеуказанными способами.

Сначала мы подробно рассмотрим правило Крамера для системы двух линейных уравнений с двумя неизвестными. Зачем? – Ведь простейшую систему можно решить школьным методом, методом почленного сложения!

Дело в том, что пусть иногда, но встречается такое задание – решить систему двух линейных уравнений с двумя неизвестными по формулам Крамера. Во-вторых, более простой пример поможет понять, как использовать правило Крамера для более сложного случая – системы трех уравнений с тремя неизвестными.

Кроме того, существуют системы линейных уравнений с двумя переменными, которые целесообразно решать именно по правилу Крамера!

Рассмотрим систему уравнений

На первом шаге вычислим определитель , его называют главным определителем системы .

метод Гаусса .

Если , то система имеет единственное решение, и для нахождения корней мы должны вычислить еще два определителя:
и

На практике вышеуказанные определители также могут обозначаться латинской буквой .

Корни уравнения находим по формулам:
,

Пример 7

Решить систему линейных уравнений

Решение : Мы видим, что коэффициенты уравнения достаточно велики, в правой части присутствуют десятичные дроби с запятой. Запятая – довольно редкий гость в практических заданиях по математике, эту систему я взял из эконометрической задачи.

Как решить такую систему? Можно попытаться выразить одну переменную через другую, но в этом случае наверняка получатся страшные навороченные дроби, с которыми крайне неудобно работать, да и оформление решения будет выглядеть просто ужасно. Можно умножить второе уравнение на 6 и провести почленное вычитание, но и здесь возникнут те же самые дроби.

Что делать? В подобных случаях и приходят на помощь формулы Крамера.

;

;

Ответ : ,

Оба корня обладают бесконечными хвостами, и найдены приближенно, что вполне приемлемо (и даже обыденно) для задач эконометрики.

Комментарии здесь не нужны, поскольку задание решается по готовым формулам, однако, есть один нюанс. Когда используете данный метод, обязательным фрагментом оформления задания является следующий фрагмент: «, значит, система имеет единственное решение» . В противном случае рецензент может Вас наказать за неуважение к теореме Крамера.

Совсем не лишней будет проверка, которую удобно провести на калькуляторе: подставляем приближенные значения в левую часть каждого уравнения системы. В результате с небольшой погрешностью должны получиться числа, которые находятся в правых частях.

Пример 8

Ответ представить в обыкновенных неправильных дробях. Сделать проверку.

Это пример для самостоятельного решения (пример чистового оформления и ответ в конце урока).

Переходим к рассмотрению правила Крамера для системы трех уравнений с тремя неизвестными:

Находим главный определитель системы:

Если , то система имеет бесконечно много решений или несовместна (не имеет решений). В этом случае правило Крамера не поможет, нужно использовать метод Гаусса .

Если , то система имеет единственное решение и для нахождения корней мы должны вычислить еще три определителя:
, ,

И, наконец, ответ рассчитывается по формулам:

Как видите, случай «три на три» принципиально ничем не отличается от случая «два на два», столбец свободных членов последовательно «прогуливается» слева направо по столбцам главного определителя.

Пример 9

Решить систему по формулам Крамера.

Решение : Решим систему по формулам Крамера.

, значит, система имеет единственное решение.

Ответ : .

Собственно, здесь опять комментировать особо нечего, ввиду того, что решение проходит по готовым формулам. Но есть пара замечаний.

Бывает так, что в результате вычислений получаются «плохие» несократимые дроби, например: .
Я рекомендую следующий алгоритм «лечения». Если под рукой нет компьютера, поступаем так:

1) Возможно, допущена ошибка в вычислениях. Как только Вы столкнулись с «плохой» дробью, сразу необходимо проверить, правильно ли переписано условие . Если условие переписано без ошибок, то нужно пересчитать определители, используя разложение по другой строке (столбцу).

2) Если в результате проверки ошибок не выявлено, то вероятнее всего, допущена опечатка в условии задания. В этом случае спокойно и ВНИМАТЕЛЬНО прорешиваем задание до конца, а затем обязательно делаем проверку и оформляем ее на чистовике после решения. Конечно, проверка дробного ответа – занятие неприятное, но зато будет обезоруживающий аргумент для преподавателя, который ну очень любит ставить минус за всякую бяку вроде . Как управляться с дробями, подробно расписано в ответе для Примера 8.

Если под рукой есть компьютер, то для проверки используйте автоматизированную программу, которую можно бесплатно скачать в самом начале урока. Кстати, выгоднее всего сразу воспользоваться программой (еще до начала решения), Вы сразу будете видеть промежуточный шаг, на котором допустили ошибку! Этот же калькулятор автоматически рассчитывает решение системы матричным методом.

Замечание второе. Время от времени встречаются системы в уравнениях которых отсутствуют некоторые переменные, например:

Здесь в первом уравнении отсутствует переменная , во втором – переменная . В таких случаях очень важно правильно и ВНИМАТЕЛЬНО записать главный определитель:
– на месте отсутствующих переменных ставятся нули.
Кстати определители с нулями рационально раскрывать по той строке (столбцу), в которой находится ноль, так как вычислений получается заметно меньше.

Пример 10

Решить систему по формулам Крамера.

Это пример для самостоятельного решения (образец чистового оформления и ответ в конце урока).

Для случая системы 4 уравнений с 4 неизвестными формулы Крамера записываются по аналогичным принципам. Живой пример можно посмотреть на уроке Свойства определителя. Понижение порядка определителя – пять определителей 4-го порядка вполне решабельны. Хотя задача уже весьма напоминает ботинок профессора на груди у студента-счастливчика.

Решение системы с помощью обратной матрицы

Метод обратной матрицы – это, по существу, частный случай матричного уравнения (см. Пример №3 указанного урока).

Для изучения данного параграфа необходимо уметь раскрывать определители, находить обратную матрицу и выполнять матричное умножение. Соответствующие ссылки будут даны по ходу объяснений.

Пример 11

Решить систему с матричным методом

Решение : Запишем систему в матричной форме:
, где

Пожалуйста, посмотрите на систему уравнений и на матрицы. По какому принципу записываем элементы в матрицы, думаю, всем понятно. Единственный комментарий: если бы в уравнениях отсутствовали некоторые переменные, то на соответствующих местах в матрице нужно было бы поставить нули.

Обратную матрицу найдем по формуле:
, где – транспонированная матрица алгебраических дополнений соответствующих элементов матрицы .

Сначала разбираемся с определителем:

Здесь определитель раскрыт по первой строке.

Внимание! Если , то обратной матрицы не существует, и решить систему матричным методом невозможно. В этом случае система решается методом исключения неизвестных (методом Гаусса) .

Теперь нужно вычислить 9 миноров и записать их в матрицу миноров

Справка: Полезно знать смысл двойных подстрочных индексов в линейной алгебре. Первая цифра – это номер строки, в которой находится данный элемент. Вторая цифра – это номер столбца, в котором находится данный элемент:

То есть, двойной подстрочный индекс указывает, что элемент находится в первой строке, третьем столбце, а, например, элемент находится в 3 строке, 2 столбце

Данный онлайн калькулятор решает систему линейных уравнений матричным методом. Дается очень подробное решение. Для решения системы линейных уравнений выберите количество переменных. Выбирайте метод вычисления обратной матрицы. Затем введите данные в ячейки и нажимайте на кнопку “Вычислить”.

×

Предупреждение

Очистить все ячейки?

Закрыть Очистить

Инструкция ввода данных. Числа вводятся в виде целых чисел (примеры: 487, 5, -7623 и т.д.), десятичных чисел (напр. 67., 102.54 и т.д.) или дробей. Дробь нужно набирать в виде a/b, где a и b целые или десятичные числа. Примеры 45/5, 6.6/76.4, -7/6.7 и т.д.

Матричный метод решения систем линейных уравнений

Рассмотрим следующую систему линейных уравнений:

Учитывая определение обратной матрицы, имеем A −1 A =E , где E – единичная матрица. Следовательно (4) можно записать так:

Таким образом, для решения системы линейных уравнений (1) (или (2)), достаточно умножить обратную к A матрицу на вектор ограничений b .

Примеры решения системы линейных уравнений матричным методом

Пример 1. Решить следующую систему линейных уравнений матричным методом:

Найдем обратную к матрице A методом Жордана-Гаусса. С правой стороны матрицы A запишем единичную матрицу:

Исключим элементы 1-го столбца матрицы ниже главной диагонали. Для этого сложим строки 2,3 со строкой 1, умноженной на -1/3,-1/3 соответственно:

Исключим элементы 2-го столбца матрицы ниже главной диагонали. Для этого сложим строку 3 со строкой 2, умноженной на -24/51:

Исключим элементы 2-го столбца матрицы выше главной диагонали. Для этого сложим строку 1 со строкой 2, умноженной на -3/17:

Отделяем правую часть матрицы. Полученная матрица является обратной матрицей к A :

Матричный вид записи системы линейных уравнений: Ax=b , где

Вычислим все алгебраические дополнения матрицы A :

,
,
,
,
,
,
,
,
.

Обратная матрица вычисляется из следующего выражения.

Уравнения вообще, линейные алгебраические уравнения и их системы, а также методы их решения занимают в математике, как теоретической, так и прикладной, особое место.

Это связано с тем обстоятельством, что подавляющее большинство физических, экономических, технических и даже педагогических задач могут быть описаны и решены с помощью разнообразных уравнений и их систем. В последнее время особую популярность среди исследователей, ученых и практиков приобрело математическое моделирование практически во всех предметных областях, что объясняется очевидными его преимуществами перед другими известными и апробированными методами исследования объектов различной природы, в частности, так называемых, сложных систем. Существует великое многообразие различных определений математической модели, данных учеными в разные времена, но на наш взгляд, самое удачное, это следующее утверждение. Математическая модель – это идея, выраженная уравнением. Таким образом, умение составлять и решать уравнения и их системы – неотъемлемая характеристика современного специалиста.

Для решения систем линейных алгебраических уравнений наиболее часто используются методы: Крамера, Жордана-Гаусса и матричный метод.

Матричный метод решения – метод решения с помощью обратной матрицы систем линейных алгебраических уравнений с ненулевым определителем.

Если выписать коэффициенты при неизвестных величинах xi в матрицу A, неизвестные величины собрать в вектор столбец X, а свободные члены в вектор столбец B, то систему линейных алгебраических уравнений можно записать в виде следующего матричного уравнения A · X = B, которое имеет единственное решение только тогда, когда определитель матрицы A не будет равен нулю. При этом решение системы уравнений можно найти следующим способом X = A -1 · B , где A -1 – обратная матрица.

Матричный метод решения состоит в следующем.

Пусть дана система линейных уравнений с n неизвестными:

Её можно переписать в матричной форме: AX = B , где A – основная матрица системы, B и X – столбцы свободных членов и решений системы соответственно:

Умножим это матричное уравнение слева на A -1 – матрицу, обратную к матрице A : A -1 (AX ) = A -1 B

Так как A -1 A = E , получаем X = A -1 B . Правая часть этого уравнения даст столбец решений исходной системы. Условием применимости данного метода (как и вообще существования решения неоднородной системы линейных уравнений с числом уравнений, равным числу неизвестных) является невырожденность матрицы A . Необходимым и достаточным условием этого является неравенство нулю определителя матрицы A : detA ≠ 0.

Для однородной системы линейных уравнений, то есть когда вектор B = 0 , действительно обратное правило: система AX = 0 имеет нетривиальное (то есть не нулевое) решение только если detA = 0. Такая связь между решениями однородных и неоднородных систем линейных уравнений носит название альтернативы Фредгольма.

Пример решения неоднородной системы линейных алгебраических уравнений .

Убедимся в том, что определитель матрицы, составленный из коэффициентов при неизвестных системы линейных алгебраических уравнений не равен нулю.

Следующим шагом будет вычисление алгебраических дополнений для элементов матрицы, состоящей из коэффициентов при неизвестных. Они понадобятся для нахождения обратной матрицы.

Решение высшей математики онлайн


‹– Назад


Алгоритм нахождения решений произвольной системы линейных уравнений (метод Гаусса) Пусть дана система линейных уравнений с неизвестными . Требуется найти ее общее решение, если она совместна, или установить ее несовместность. Метод, который будет изложен в этом разделе, близок к методу вычисления определителя 5.1.с и к методу нахождения ранга матрицы (раздел 5.8). Предлагаемый алгоритм называется методом Гаусса или методом последовательного исключения неизвестных.

Выпишем расширенную матрицу системы

Назовем элементарными операциями следующие действия с матрицами:

  1. перестановка строк;
  2. умножение строки на число, отличное от нуля;
  3. сложение строки с другой строкой, умноженной на число.

Отметим, что при решении системы уравнений, в отличие от вычисления определителя и нахождения ранга, нельзя оперировать со столбцами.

Читатель легко проверит, что если по матрице, полученной из выполнением элементарной операции, восстановить систему уравнений, то новая система будет равносильна исходной.

Цель алгоритма — с помощью применения последовательности элементарных операций к матрице добиться, чтобы каждая строка, кроме, быть может, первой, начиналась с нулей, и число нулей до первого ненулевого элемента в каждой следующей строке было больше, чем в предыдущей.

Шаг алгоритма заключается в следующем. Находим первый ненулевой столбец в матрице . Пусть это будет столбец с номером . Находим в нем ненулевой элемент и строку с этим элементом меняем местами с первой строкой. Чтобы не нагромождать дополнительных обозначений, будем считать, что такая смена строк в матрице уже произведена, то есть . Тогда ко второй строке прибавим первую, умноженную на число , к третьей строке прибавим первую, умноженную на число , и т.д. В результате получим матрицу

(Первые нулевые столбцы, как правило, отсутствуют.)

Если в матрице встретилась строка с номером , в которой все элементы равны нулю, а , то выполнение алгоритма останавливаем и делаем вывод, что система несовместна. Действительно, восстанавливая систему уравнений по расширенной матрице, получим, что -ое уравнение будет иметь вид

Этому уравнению не удовлетворяет ни один набор чисел .

Матрицу можно записать в виде

где По отношению к матрице выполняем описанный шаг алгоритма. Получаем матрицу где , . Эту матрицу снова можно записать в виде и к матрице снова применим описанный выше шаг алгоритма.

Процесс останавливается, если после выполнения очередного шага новая уменьшенная матрица состоит из одних нулей или если исчерпаны все строки. Заметим, что заключение о несовместности системы могло остановить процесс и ранее.

Если бы мы не уменьшали матрицу, то в итоге пришли бы к матрице вида

Далее выполняется так называемый обратный ход метода Гаусса. По матрице составляем систему уравнений. В левой части оставляем неизвестные с номерами, соответствующими первым ненулевым элементам в каждой строке, то есть . Заметим, что . Остальные неизвестные переносим в правую часть. Считая неизвестные в правой части некоторыми фиксированными величинами, несложно выразить через них неизвестные левой части.

Теперь, придавая неизвестным в правой части произвольные значения и вычисляя значения переменных левой части, мы будем находить различные решения исходной системы . Чтобы записать общее решение, нужно неизвестные в правой части обозначить в каком-либо порядке буквами , включая и те неизвестные, которые явно не выписаны в правой части из-за нулевых коэффициентов, и тогда столбец неизвестных можно записать в виде столбца, где каждый элемент будет линейной комбинацией произвольных величин (в частности, просто произвольной величиной ). Эта запись и будет общим решением системы.

Если система была однородной, то получим общее решение однородной системы. Коэффициенты при , взятые в каждом элементе столбца общего решения, составят первое решение из фундаментальной системы решений, коэффициенты при  — второе решение и т.д.

Фундаментальную систему решений однородной системы можно получить и другим способом. Для этого одному переменному, перенесенному в правую часть, нужно присвоить значение 1, а остальным — нули. Вычислив значения переменных в левой части, получим одно решение из фундаментальной системы. Присвоив другому переменному в правой части значение 1, а остальным — нули, получим второе решение из фундаментальной системы и т.д.

        Замечание 15.4   У читателя может возникнуть вопрос: “Зачем рассматривать случай, когда некоторые столбцы матрицы нулевые? Ведь в этом случае соответствующие им переменные в системе уравнений в явном виде отсутствуют.” Но дело том, что в некоторых задачах, например, при нахождении собственных чисел матрицы, такие системы возникают, и игнорировать отсутствующие переменные нельзя, так как при этом происходит потеря важных для задачи решений.                  Пример 15.2   Найдите общее решение системы уравнений где неизвестными являются .

Решение. Выпишем расширенную матрицу системы

Прибавим ко второй строке первую, умноженную на число , к третьей строке прибавим первую, умноженную на . В результате получим Прибавим к третьей строке вторую, умноженную на число . Получим Прямой ход метода Гаусса закончен. Выписываем по матрице систему уравнений Переносим в правую часть неизвестные (неизвестное реально в ней присутствовать не будет, коэффициент перед ним равен нулю). Получаем Пусть , , , . Из уравнений находим:

Ответ: , , , , , , где , , ,  — произвольные числа.         

        Замечание 15.5   В процессе решения можно также установить, какие ранги у матриц и и где расположены их базисные миноры. В предыдущем примере , базисный минор расположен в строках с номерами 1, 2, столбцах с номерами 2, 5.                  Пример 15.3   Найдите общее решение системы уравнений

Решение. Запишем расширенную матрицу системы:

Ко второй строке прибавим первую, умноженную на , к третьей строке прибавим первую, умноженную на , к четвертой строке прибавим первую, умноженную на : Вторую строку, умноженную на , прибавим к третьей: В третьей строке все элементы равны нулю, а элемент . Значит, система несовместна.

Ответ: Система несовместна.         

        Пример 15.4   Решите систему

Решение. Имеем:

Первую строку, умноженную на числа , , , прибавим соответственно ко второй, третьей и четвертой строкам: К третьей строке прибавим вторую, умноженную на . Получим К четвертой строке прибавим третью, умноженную на : Выписываем по матрице систему уравнений: Находим последовательно значения неизвестных:

Ответ: .         

        Замечание 15.6   Так же, как и при решении системы уравнений по правилу Крамера, при использовании метода Гаусса приходится выполнять большой объем вычислительной работы. Из-за этого вполне возможно, что будет допущена какая-либо ошибка в вычислениях. Поэтому желательно после решения системы выполнить проверку, то есть подставить полученные значения неизвестных в уравнения системы. Для выполнения полной проверки подстановку нужно произвести во все уравнения системы. Если же по каким-то причинам это не выполнимо, то можно подставить найденные значения в одно уравнение. В отличие от правила Крамера в методе Гаусса эту подстановку нужно производить в ПОСЛЕДНЕЕ уравнение исходной системы. При наличии в этом уравнении всех неизвестных эта подстановка почти всегда покажет наличие ошибки, если таковая была допущена.         

        Пример 15.5   Найдите фундаментальную систему решений и общее решение однородной системы линейных уравнений:

Решение. Составляем расширенную матрицу системы:

Умножим первую строку последовательно на , 5 и 1 и прибавим соответственно ко второй, третьей и четвертой строкам. Получим матрицу Вторую строку умножим последовательно на числа 4 и 2 и прибавим соответственно к третьей и четвертой строкам. Получим матрицу Прямой ход метода Гаусса закончен. У полученной матрицы легко определить ранг, ее базисный минор . Отсюда следует, что . По  теореме 15.3 число решений в фундаментальной системе равно разности между числом неизвестных и рангом матрицы, в нашем случае фундаментальная система состоит из трех решений.

Переходим к системе уравнений

Неизвестные и оставляем в левой части, остальные переносим в правую часть:

Положим , . Получим , . Первое решение из фундаментальной системы: .

Положим , . Получим , . Второе решение из фундаментальной системы решений: .

Положим , . Получим , . Третье решение из фундаментальной системы решений: . Фундаментальная система решений найдена. Общее решение имеет вид

Ответ: Фундаментальная система решений:
, , , общее решение: .         

        Замечание 15.7   Если решения, составляющие фундаментальную систему, умножить на любые ненулевые числа, то вновь полученные решения снова будут образовывать фундаментальную систему. Поэтому в предыдущем примере фундаментальную систему образуют и такие решения:
, , . Общее решение можно записать так: .         

Математика, вышка, высшая математика, математика онлайн, вышка онлайн, онлайн математика, онлайн решение математики, ход решения, процес решения, решение, задачи, задачи по математике, математические задачи, решение математики онлайн, решение математики online, online решение математики, решение высшей математики, решение высшей математики онлайн, матрицы, решение матриц онлайн, векторная алгебра онлайн, решение векторов онлайн, система линейных уравнений, метод Крамера, метод Гаусса, метод обратной матрицы, уравнения, системы уравнений, производные, пределы, интегралы, функция, неопределенный интеграл, определенный интеграл, решение интегралов, вычисление интегралов, решение производных, интегралы онлайн, производные онлайн, пределы онлайн, предел функции, предел последовательности, высшие производные, производная неявной функции

Произошла ошибка при настройке вашего пользовательского файла cookie

Произошла ошибка при настройке вашего пользовательского файла cookie

Этот сайт использует файлы cookie для повышения производительности. Если ваш браузер не принимает файлы cookie, вы не можете просматривать этот сайт.

Настройка вашего браузера для приема файлов cookie

Существует множество причин, по которым cookie не может быть установлен правильно. Ниже приведены наиболее частые причины:

  • В вашем браузере отключены файлы cookie.Вам необходимо сбросить настройки своего браузера, чтобы он принимал файлы cookie, или чтобы спросить вас, хотите ли вы принимать файлы cookie.
  • Ваш браузер спрашивает вас, хотите ли вы принимать файлы cookie, и вы отказались. Чтобы принять файлы cookie с этого сайта, нажмите кнопку «Назад» и примите файлы cookie.
  • Ваш браузер не поддерживает файлы cookie. Если вы подозреваете это, попробуйте другой браузер.
  • Дата на вашем компьютере в прошлом. Если часы вашего компьютера показывают дату до 1 января 1970 г., браузер автоматически забудет файл cookie.Чтобы исправить это, установите правильное время и дату на своем компьютере.
  • Вы установили приложение, которое отслеживает или блокирует установку файлов cookie. Вы должны отключить приложение при входе в систему или проконсультироваться с системным администратором.

Почему этому сайту требуются файлы cookie?

Этот сайт использует файлы cookie для повышения производительности, запоминая, что вы вошли в систему, когда переходите со страницы на страницу.Чтобы предоставить доступ без файлов cookie потребует, чтобы сайт создавал новый сеанс для каждой посещаемой страницы, что замедляет работу системы до неприемлемого уровня.

Что сохраняется в файле cookie?

Этот сайт не хранит ничего, кроме автоматически сгенерированного идентификатора сеанса в cookie; никакая другая информация не фиксируется.

Как правило, в файлах cookie может храниться только информация, которую вы предоставляете, или выбор, который вы делаете при посещении веб-сайта.Например, сайт не может определить ваше имя электронной почты, пока вы не введете его. Разрешение веб-сайту создавать файлы cookie не дает этому или любому другому сайту доступа к остальной части вашего компьютера, и только сайт, который создал файл cookie, может его прочитать.

40 вопросов (с решением) для тестирования специалистов по данным по методам кластеризации

Введение

Идея создания машин, которые обучаются сами по себе, движет людьми уже несколько десятилетий.Ключом к осуществлению этой мечты является обучение без учителя и кластеризация. Обучение без учителя обеспечивает большую гибкость, но также является более сложной задачей.

Кластеризация играет важную роль в извлечении информации из немаркированных данных. Он классифицирует данные по схожим группам, что улучшает различные бизнес-решения, обеспечивая мета-понимание.

В этом тесте навыков мы проверили в нашем сообществе методы кластеризации. Всего в этой проверке навыков зарегистрировалось 1566 человек.Если вы пропустили тест, это ваша возможность узнать, на сколько вопросов вы могли бы ответить правильно.

Если вы только начинаете работать с обучением без учителя, вот несколько исчерпывающих ресурсов, которые помогут вам в вашем путешествии:

Общие результаты

Ниже представлено распределение баллов, это поможет вам оценить свою производительность:

Здесь вы можете посмотреть свои выступления. В проверке навыков приняли участие более 390 человек, наивысший балл составил 33.Вот несколько статистических данных о распределении.

Общее распределение

Средний балл: 15,11

Средний балл: 15

Оценка режима: 16

Полезные ресурсы

Введение в кластеризацию и различные методы кластеризации

Правильная кластеризация (Часть I)

Правильная кластеризация (Часть II)

Вопросы и ответы

1 кв.Примеры систем рекомендации фильмов:

  1. Классификация
  2. Кластеризация
  3. Обучение с подкреплением
  4. Регрессия

Опции:

Б.А. 2 Только

С. 1 и 2

Д. 1 и 3

E. 2 и 3

F. 1, 2 и 3

H. 1, 2, 3 и 4

Решение: (E)

Как правило, системы рекомендаций по фильмам объединяют пользователей в конечное число похожих групп на основе их предыдущих действий и профиля.Затем, на фундаментальном уровне, людям в одном кластере даются аналогичные рекомендации.

В некоторых сценариях к этому также можно подойти как к проблеме классификации для назначения наиболее подходящего класса фильма пользователю определенной группы пользователей. Кроме того, система рекомендаций по фильмам может рассматриваться как проблема обучения с подкреплением, когда она учится на основе своих предыдущих рекомендаций и улучшает будущие рекомендации.

2 кв. Пример анализа настроений:

  1. Регрессия
  2. Классификация
  3. Кластеризация
  4. Обучение с подкреплением

Опции:

А.1 Только

Б. 1 и 2

С. 1 и 3

D. 1, 2 и 3

E. 1, 2 и 4

F. 1, 2, 3 и 4

Решение: (E)

Анализ настроений на фундаментальном уровне – это задача классификации настроений, представленных в изображении, тексте или речи, на набор определенных классов настроений, таких как счастье, грусть, возбуждение, положительное, отрицательное и т. Д. Его также можно рассматривать как регрессию. проблема для присвоения оценки тональности, скажем, от 1 до 10 для соответствующего изображения, текста или речи.

Другой способ взглянуть на анализ настроений – рассмотреть его с точки зрения обучения с подкреплением, когда алгоритм постоянно учится на точности прошлого анализа настроений, выполняемого для улучшения будущих показателей.

3 кв. Можно ли использовать деревья решений для выполнения кластеризации?

A. Верно

B. Ложь

Решение: (A)

Деревья решений также могут использоваться для кластеров в данных, но кластеризация часто генерирует естественные кластеры и не зависит от какой-либо целевой функции.

4 кв. Какая из следующих стратегий является наиболее подходящей для очистки данных перед выполнением кластерного анализа, учитывая меньшее, чем желаемое количество точек данных:

  1. Укупорка и мука переменных
  2. Удаление выбросов

Опции:

A. 1 только

B. 2 только

С. 1 и 2

D. Ничего из вышеперечисленного

Решение: (A)

Удаление выбросов не рекомендуется, если точек данных мало.В этом сценарии наиболее подходящей стратегией является ограничение и использование переменных.

Q5. Какого минимума нет. переменных / функций, необходимых для выполнения кластеризации?

А. 0

Б. 1

C. 2

Д. 3

Решение: (B)

Для выполнения кластерного анализа требуется по крайней мере одна переменная. Кластерный анализ с одной переменной можно визуализировать с помощью гистограммы.

Q6. Ожидается ли получение одинаковых результатов кластеризации для двух прогонов кластеризации K-среднего?

A. Есть

Б. №

Решение: (B)

Алгоритм кластеризации K-средних вместо этого обращается к локальным минимумам, которые также могут соответствовать глобальным минимумам в некоторых случаях, но не всегда. Поэтому рекомендуется запускать алгоритм K-средних несколько раз, прежде чем делать выводы о кластерах.

Однако обратите внимание, что можно получить одинаковые результаты кластеризации от K-средних, установив одно и то же начальное значение для каждого прогона.Но для этого нужно просто заставить алгоритм выбирать набор одинаковых случайных номеров. за каждый пробег.

Q7. Возможно ли, что присвоение наблюдений кластерам не меняется между последовательными итерациями в K-средних

A. Есть

Б. №

C. Не могу сказать

D. Ни один из этих

Решение: (A)

Когда алгоритм K-средних достигает локального или глобального минимума, он не изменяет назначение точек данных кластерам для двух последовательных итераций.

Q8. Что из нижеперечисленного может выступать в качестве возможных условий прекращения действия в K-средних?

  1. Для фиксированного количества итераций.
  2. Присвоение наблюдений кластерам не меняется между итерациями. За исключением случаев с плохим локальным минимумом.
  3. Центроиды не меняются между последовательными итерациями.
  4. Завершить, когда RSS упадет ниже порогового значения.

Опции:

А.1, 3 и 4

Б. 1, 2 и 3

C. 1, 2 и 4

D. Все вышеперечисленное

Решение: (D)

Все четыре условия могут использоваться в качестве возможных условий завершения в кластеризации K-средних:

  1. Это условие ограничивает время выполнения алгоритма кластеризации, но в некоторых случаях качество кластеризации будет низким из-за недостаточного количества итераций.
  2. За исключением случаев с плохим локальным минимумом, это дает хорошую кластеризацию, но время выполнения может быть неприемлемо долгим.
  3. Это также обеспечивает сходимость алгоритма на минимумах.
  4. Завершить, когда RSS упадет ниже порогового значения. Этот критерий обеспечивает желаемое качество кластеризации после завершения. На практике рекомендуется комбинировать это с ограничением количества итераций, чтобы гарантировать завершение.

Q9. Какой из следующих алгоритмов кластеризации страдает проблемой сходимости при локальных оптимумах?

  1. K- Алгоритм кластеризации средств
  2. Алгоритм агломеративной кластеризации
  3. Алгоритм кластеризации ожидания-максимизации
  4. Алгоритм разнообразной кластеризации

Опции:

А.1 только

Б. 2 и 3

C. 2 и 4

Д. 1 и 3

E. 1,2 и 4

F. Все вышеперечисленное

Решение: (D)

Из представленных вариантов только алгоритм кластеризации K-средних и алгоритм кластеризации EM имеют недостаток, заключающийся в сходимости в локальных минимумах.

Q10. Какой из следующих алгоритмов наиболее чувствителен к выбросам?

A. Алгоритм кластеризации K-средних

Б.Алгоритм кластеризации K-medians

C. Алгоритм кластеризации K-режимов

D. Алгоритм кластеризации K-medoids

Решение: (A)

Из всех вариантов алгоритм кластеризации K-средних наиболее чувствителен к выбросам, поскольку он использует среднее значение точек данных кластера для поиска центра кластера.

Q11. После выполнения анализа кластеризации K-средних для набора данных вы наблюдали следующую дендрограмму. Какой из следующих выводов можно сделать на основе дендрограммы?

А.В кластерном анализе

было 28 точек данных.

Б. Лучшего нет. кластеров для анализируемых точек данных составляет 4

C. Используемая функция близости – кластеризация среднего звена

D. Вышеупомянутая интерпретация дендрограммы невозможна для кластерного анализа K-средних

Решение: (D)

Дендрограмма невозможна для кластерного анализа K-средних. Однако можно создать кластерную грамму на основе анализа кластеризации K-средних.

Q12.Как можно использовать кластеризацию (обучение без учителя) для повышения точности модели линейной регрессии (обучение с учителем):

  1. Создание разных моделей для разных групп кластеров.
  2. Создание входного объекта для идентификаторов кластера в качестве порядковой переменной.
  3. Создание входного объекта для центроидов кластера как непрерывной переменной.
  4. Создание входной характеристики для размера кластера как непрерывной переменной.

Опции:

A. 1 только

Б. 1 и 2

С. 1 и 4

D. 3 только

E. 2 и 4

F. Все вышеперечисленное

Решение: (F)

Создание входного объекта для идентификаторов кластера в качестве порядковой переменной или создание входного объекта для центроидов кластера в качестве непрерывной переменной может не передавать никакой релевантной информации в регрессионную модель для многомерных данных. Но для кластеризации в одном измерении ожидается, что все данные методы будут передавать значимую информацию в регрессионную модель.Например, чтобы объединить людей в две группы на основе их длины волос, сохранение идентификатора кластера в качестве порядковой переменной и центроидов кластера в качестве непрерывных переменных будет передавать значимую информацию.

Q13. Какая может быть возможная причина (ы) для создания двух разных дендрограмм с использованием алгоритма агломеративной кластеризации для одного и того же набора данных?

A. Используемая функция приближения

Б. использованных точек данных

C. используемых переменных

Д.B и c только

E. Все вышеперечисленное

Решение: (E)

Изменение функции приближения, № точек данных или нет. переменных приведет к разным результатам кластеризации и, следовательно, к разным дендрограммам.

Q14. На рисунке ниже, если вы проведете горизонтальную линию по оси y для y = 2. Какое количество кластеров будет сформировано?

А. 1

Б. 2

C. 3

Д.4

Решение: (B)

Так как количество вертикальных линий, пересекающих красную горизонтальную линию при y = 2 в дендрограмме, равно 2, следовательно, будут сформированы два кластера.

Q15. Какого наиболее подходящего нет. кластеров для точек данных, представленных следующей дендрограммой:

А. 2

Б. 4

С. 6

Д. 8

Решение: (B)

Решение нет.кластеров, которые могут лучше всего отображать различные группы, можно выбрать, наблюдая за дендрограммой. Лучший выбор из числа нет. кластеров нет. вертикальных линий на дендрограмме, разрезанных горизонтальной линией, которая может пересекать максимальное расстояние по вертикали, не пересекая кластер.

В приведенном выше примере лучший выбор нет. кластеров будет 4, так как красная горизонтальная линия на дендрограмме ниже покрывает максимальное вертикальное расстояние AB.

Q16.В каком из следующих случаев кластеризация K-средних не даст хороших результатов?

  1. Точки данных с выбросами
  2. Точки данных с разной плотностью
  3. Контрольные точки круглой формы
  4. Точки данных с невыпуклой формой

Опции:

А. 1 и 2

Б. 2 и 3

C. 2 и 4

D. 1, 2 и 4

E. 1, 2, 3 и 4

Решение: (D)

Алгоритм кластеризации K-средних не дает хороших результатов, когда данные содержат выбросы, разброс плотности точек данных в пространстве данных отличается, а точки данных имеют невыпуклые формы.

Q17. Какие из следующих показателей мы используем для обнаружения различий между двумя кластерами в иерархической кластеризации?

  1. Одинарный
  2. Полная ссылка
  3. Среднее звено

Опции:

А. 1 и 2

Б. 1 и 3

С. 2 и 3

D. 1, 2 и 3

Решение: (D)

Все три метода i.е. одиночная ссылка, полная ссылка и средняя ссылка могут использоваться для обнаружения различий между двумя кластерами в иерархической кластеризации.

Q18. Что из следующего верно?

  1. На кластеризацию отрицательно влияет мультиколлинеарность признаков
  2. На кластерный анализ отрицательно влияет гетероскедастичность

Опции:

A. 1 только

B. 2 только

С.1 и 2

D. Ни одного

Решение: (A)

Кластерный анализ не подвержен отрицательному влиянию гетероскедастичности, но на результаты отрицательно влияет мультиколлинеарность функций / переменных, используемых в кластеризации, поскольку коррелированный объект / переменная будет иметь дополнительный вес при вычислении расстояния, чем хотелось бы.

Q19. Дано шесть точек со следующими атрибутами:

Какое из следующих представлений кластеризации и дендрограммы описывает использование MIN или функции близости одиночного звена в иерархической кластеризации:

А.

Б.

C.

Д.

Решение: (A)

Для одноканальной или MIN версии иерархической кластеризации близость двух кластеров определяется как минимум расстояния между любыми двумя точками в разных кластерах. Например, из таблицы мы видим, что расстояние между точками 3 и 6 составляет 0,11, и это высота, на которой они объединяются в один кластер на дендрограмме. В качестве другого примера, расстояние между кластерами {3, 6} и {2, 5} задается как dist ({3, 6}, {2, 5}) = min (dist (3, 2), dist (6, 2), dist (3, 5), dist (6, 5)) = min (0.1483, 0,2540, 0,2843, 0,3921) = 0,1483.

Q20 Дано шесть точек со следующими атрибутами:

Какое из следующих представлений кластеризации и дендрограммы описывает использование MAX или функции полной близости ссылок в иерархической кластеризации:

А.

Б.

C.

Д.

Решение: (B)

Для одноканальной или MAX версии иерархической кластеризации близость двух кластеров определяется как максимальное расстояние между любыми двумя точками в разных кластерах.Точно так же здесь сначала объединяются точки 3 и 6. Однако {3, 6} объединяется с {4} вместо {2, 5}. Это потому, что dist ({3, 6}, {4}) = max (dist (3, 4), dist (6, 4)) = max (0,1513, 0,2216) = 0,2216, что меньше dist ({ 3, 6}, {2, 5}) = max (dist (3, 2), dist (6, 2), dist (3, 5), dist (6, 5)) = max (0,1483, 0,2540, 0,2843 , 0,3921) = 0,3921 и dist ({3, 6}, {1}) = max (dist (3, 1), dist (6, 1)) = max (0,2218, 0,2347) = 0,2347.

Q21 Дано шесть точек со следующими атрибутами:

Какое из следующих представлений кластеризации и дендрограммы описывает использование функции средней близости группы в иерархической кластеризации:

А.

Б.
С.

Д.

Решение: (C)

Для версии иерархической кластеризации со средним групповым значением близость двух кластеров определяется как среднее попарное соседство между всеми парами точек в различных кластерах. Это промежуточный подход между MIN и MAX. Это выражается следующим уравнением:

Здесь расстояние между некоторыми кластерами. dist ({3, 6, 4}, {1}) = (0.2218 + 0,3688 + 0,2347) / (3 ∗ 1) = 0,2751. dist ({2, 5}, {1}) = (0,2357 + 0,3421) / (2 ∗ 1) = 0,2889. dist ({3, 6, 4}, {2, 5}) = (0,1483 + 0,2843 + 0,2540 + 0,3921 + 0,2042 + 0,2932) / (6 ∗ 1) = 0,2637. Поскольку dist ({3, 6, 4}, {2, 5}) меньше dist ({3, 6, 4}, {1}) и dist ({2, 5}, {1}), эти два объединение кластеров на четвертом этапе

Q22. Дано шесть точек со следующими атрибутами:

Какое из следующих представлений кластеризации и дендрограммы описывает использование функции близости метода Уорда в иерархической кластеризации:

А.

Б.

C.

Д.

Решение: (D)

Метод Уорда – это центроидный метод. Метод центроидов вычисляет близость между двумя кластерами, вычисляя расстояние между центроидами кластеров. Для метода Уорда близость между двумя кластерами определяется как увеличение квадратичной ошибки, возникающей при объединении двух кластеров. Результаты применения метода Уорда к выборке данных из шести точек. Результирующая кластеризация несколько отличается от результатов, полученных с помощью MIN, MAX и среднего значения по группе.

Q23. То, что должно быть лучшим выбором, нет. кластеров по результатам:

А. 1

Б. 2

C. 3

Д. 4

Решение: (C)

Коэффициент силуэта – это показатель того, насколько объект похож на его собственный кластер по сравнению с другими кластерами. Количество кластеров, для которых коэффициент силуэта самый высокий, представляет собой лучший выбор количества кластеров.

Q24. Что из следующего является / являются допустимой итеративной стратегией для обработки пропущенных значений перед кластерным анализом?

A. Расчет со средним значением

B. Назначение ближайшего соседа

C. Алгоритм импутации с максимизацией ожидания

D. Все вышеперечисленное

Решение: (C)

Все упомянутые методы применимы для обработки пропущенных значений перед кластерным анализом, но только вменение с помощью алгоритма EM является итеративным в его работе.

Q25. Алгоритм K-Mean имеет некоторые ограничения. Одно из его ограничений заключается в том, что он жестко присваивает (точка либо полностью принадлежит кластеру, либо не принадлежит вообще) точек кластерам.

Примечание. Мягкое присвоение можно рассматривать как вероятность присвоения каждому кластеру: скажем, K = 3 и для некоторой точки xn, p1 = 0,7, p2 = 0,2, p3 = 0,1)

Какой из следующих алгоритмов допускает мягкое присвоение?

  1. Модели смеси Гаусса
  2. Нечеткие K-средние

Опции:

А.1 только

B. 2 только

С. 1 и 2

D. Ни один из этих

Решение: (C)

Как модели гауссовой смеси, так и нечеткие K-средние допускают мягкие присваивания.

Q26. Предположим, вы хотите сгруппировать 7 наблюдений в 3 кластера, используя алгоритм кластеризации K-средних. После первой итерации кластеров C1, C2, C3 имеют следующие наблюдения:

C1: {(2,2), (4,4), (6,6)}

C2: {(0,4), (4,0)}

C3: {(5,5), (9,9)}

Какими будут центроиды кластера, если вы хотите перейти ко второй итерации?

А.С1: (4,4), С2: (2,2), С3: (7,7)

В. C1: (6,6), C2: (4,4), C3: (9,9)

С. C1: (2,2), C2: (0,0), C3: (5,5)

D. Ни один из этих

Решение: (A)

Нахождение центроида для точек данных в кластере C1 = ((2 + 4 + 6) / 3, (2 + 4 + 6) / 3) = (4, 4)

Нахождение центроида для точек данных в кластере C2 = ((0 + 4) / 2, (4 + 0) / 2) = (2, 2)

Нахождение центроида для точек данных в кластере C3 = ((5 + 9) / 2, (5 + 9) / 2) = (7, 7)

Следовательно, C1: (4,4), C2: (2,2), C3: (7,7)

Q27.Предположим, вы хотите сгруппировать 7 наблюдений в 3 кластера, используя алгоритм кластеризации K-средних. После первой итерации кластеров C1, C2, C3 имеют следующие наблюдения:

C1: {(2,2), (4,4), (6,6)}

C2: {(0,4), (4,0)}

C3: {(5,5), (9,9)}

Каким будет расстояние до Манхэттена для наблюдения (9, 9) от центра тяжести скопления C1. Во второй итерации.

А. 10

Б. 5 * sqrt (2)

С.13 * sqrt (2)

D. Ни один из этих

Решение: (A)

Манхэттенское расстояние между центроидом C1, т.е. (4, 4) и (9, 9) = (9-4) + (9-4) = 10

Q28. Если для кластеризации используются две переменные V1 и V2. Что из следующего верно для K означает кластеризацию с k = 3?

  1. Если корреляция V1 и V2 равна 1, центроиды кластера будут находиться на прямой линии
  2. Если корреляция между V1 и V2 равна 0, центроиды кластера будут находиться на прямой линии

Опции:

А.1 только

B. 2 только

С. 1 и 2

D. Ничего из вышеперечисленного

Решение: (A)

Если корреляция между переменными V1 и V2 равна 1, то все точки данных будут на прямой линии. Следовательно, все три центроида кластера также будут образовывать прямую линию.

Q29. Масштабирование признаков – важный шаг перед применением алгоритма K-Mean. В чем причина этого?

A. При расчете расстояния он дает одинаковые веса для всех функций

Б.Вы всегда получаете одни и те же кластеры. Если вы используете или не используете масштабирование функций

C. Для манхэттенского расстояния это важный шаг, но для евклидова это не

.

D. Ни один из этих

Решение; (А)

Масштабирование функций гарантирует, что все функции получат одинаковый вес в кластерном анализе. Рассмотрим сценарий группировки людей на основе их веса (в кг) в диапазоне от 55 до 110 и роста (в дюймах) в диапазоне от 5,6 до 6,4. В этом случае кластеры, полученные без масштабирования, могут вводить в заблуждение, поскольку диапазон веса намного выше, чем диапазон высоты.Следовательно, необходимо привести их к одному масштабу, чтобы они имели одинаковый вес в результате кластеризации.

Q30. Какой из следующих методов используется для поиска оптимального кластера в алгоритме K-Mean?

A. Отводной метод

B. Манхэттенский метод

C. Метод Эклудиана

D. Все вышеперечисленное

E. Ни один из этих

Решение: (A)

Из представленных вариантов для нахождения оптимального количества кластеров используется только метод локтя.Метод локтя рассматривает процент дисперсии, объясняемый как функцию количества кластеров: следует выбрать количество кластеров, чтобы добавление еще одного кластера не дало лучшего моделирования данных.

Q31. Что верно в отношении кластеризации K-среднего?

  1. K-means чрезвычайно чувствителен к инициализациям центра кластера
  2. Плохая инициализация может привести к плохой скорости сходимости
  3. Плохая инициализация может привести к плохой общей кластеризации

Опции:

А.1 и 3

Б. 1 и 2

С. 2 и 3

D. 1, 2 и 3

Решение: (D)

Все три приведенных утверждения верны. K-means чрезвычайно чувствителен к инициализации центра кластера. Кроме того, плохая инициализация может привести к плохой скорости сходимости, а также к плохой общей кластеризации.

Q32. Что из следующего можно применить для получения хороших результатов для алгоритма K-средних, соответствующих глобальным минимумам?

  1. Попробуйте запустить алгоритм для другой инициализации центроида
  2. Настроить количество итераций
  3. Определить оптимальное количество кластеров

Опции:

А.2 и 3

Б. 1 и 3

С. 1 и 2

D. Все вышеперечисленное

Решение: (D)

Все это стандартные методы, которые используются для получения хороших результатов кластеризации.

Q33. Каким должен быть лучший выбор для количества кластеров на основе следующих результатов:

А. 5

Б. 6

С. 14

D. Более 14

Решение: (B)

Основываясь на приведенных выше результатах, лучший выбор количества кластеров с использованием метода изгиба – 6.

Q34. Каким должен быть лучший выбор для количества кластеров на основе следующих результатов:

А. 2

Б. 4

С. 6

Д. 8

Решение: (C)

Как правило, более высокий средний коэффициент силуэта указывает на лучшее качество кластеризации. На этом графике оптимальное количество ячеек сетки в изучаемой области должно быть 2, при котором значение среднего коэффициента силуэта является самым высоким.Однако SSE этого решения кластеризации (k = 2) слишком велик. При k = 6 SSE намного меньше. Кроме того, значение среднего коэффициента силуэта при k = 6 также очень велико, что чуть меньше, чем k = 2. Таким образом, лучший выбор – k = 6.

Q35. Какая из следующих последовательностей верна для алгоритма K-средних, использующего метод инициализации Forgy?

  1. Укажите количество кластеров
  2. Назначить центроиды кластера случайным образом
  3. Назначьте каждую точку данных ближайшему центроиду кластера
  4. Переназначить каждую точку ближайшим центроидам кластера
  5. Пересчитать центроиды кластера

Опции:

А.1, 2, 3, 5, 4

Б. 1, 3, 2, 4, 5

С. 2, 1, 3, 4, 5

D. Ни один из этих

Решение: (A)

Методы, используемые для инициализации в K-средствах, – это Forgy и Random Partition. Метод Forgy случайным образом выбирает k наблюдений из набора данных и использует их в качестве начальных средств. Метод случайного разбиения сначала случайным образом назначает кластер каждому наблюдению, а затем переходит к этапу обновления, таким образом вычисляя начальное среднее значение как центроид случайно назначенных точек кластера.

Q36. Если вы используете полиномиальные смешанные модели с алгоритмом максимизации ожидания для кластеризации набора точек данных в два кластера, какие из предположений важны:

A. Все точки данных соответствуют двум распределениям Гаусса

B. Все точки данных соответствуют n распределению Гаусса (n> 2)

C. Все точки данных соответствуют двум полиномиальным распределениям

D. Все точки данных соответствуют n полиномиальному распределению (n> 2)

Решение: (C)

В алгоритме EM для кластеризации важно выбрать тот же номер.кластеров для классификации точек данных как нет. различных распределений, из которых они, как ожидается, будут сгенерированы, а также распределения должны быть одного типа.

Q37. Что из следующего является / неверным относительно алгоритма кластеризации K-средних на основе Centroid и алгоритма кластеризации с максимизацией ожидания на основе распределения:

  1. Оба запуска со случайными инициализациями
  2. Оба алгоритма итерационные
  3. Оба имеют сильные предположения, что точки данных должны соответствовать
  4. Оба чувствительны к выбросам
  5. Алгоритм максимизации ожидания является частным случаем K-средних
  6. Оба требуют предварительного знания нет.желаемых кластеров
  7. Результаты, полученные обоими, невоспроизводимы.

Опции:

A. 1 только

B. 5 только

С. 1 и 3

Д. 6 и 7

E. 4, 6 и 7

F. Ничего из вышеперечисленного

Решение: (B)

Все вышеперечисленные утверждения верны, за исключением 5 th , поскольку вместо этого K-средние являются частным случаем алгоритма EM, в котором только центроиды распределений кластеров вычисляются на каждой итерации.

Q38. Что из нижеперечисленного верно / неверно об алгоритме кластеризации DBSCAN:

  1. Чтобы точки данных находились в кластере, они должны находиться на пороговом расстоянии от точки ядра
  2. Он имеет сильные предположения для распределения точек данных в пространстве данных
  3. Имеет существенно большую временную сложность заказа O (n 3 )
  4. Это не требует предварительного знания нет.желаемых кластеров
  5. Устойчив к выбросам

Опции:

A. 1 только

B. 2 только

C. 4 только

Д. 2 и 3

E. 1 и 5

F. 1, 3 и 5

Решение: (D)

  • DBSCAN может формировать кластер любой произвольной формы и не имеет строгих предположений о распределении точек данных в пространстве данных.
  • DBSCAN имеет низкую временную сложность порядка O (n log n).

Q39. Что из следующего является верхней и нижней границей существования F-Score?

А. [0,1]

Б. (0,1)

C. [-1,1]

D. Ничего из вышеперечисленного

Решение: (A)

Наименьшее и самое высокое возможные значения F-score – 0 и 1, где 1 означает, что каждая точка данных назначена правильному кластеру, а 0 означает, что прецессия и / или отзыв кластерного анализа равны 0.В кластерном анализе желательна высокая оценка F.

Q40. Ниже приведены результаты, наблюдаемые при кластеризации 6000 точек данных в 3 кластера: A, B и C:

.

Какова оценка F 1 по отношению к кластеру B?

А. 3

Б. 4

C. 5

Д. 6

Решение: (D)

Здесь,

Истинно положительный, TP = 1200

Истинно отрицательный, TN = 600 + 1600 = 2200

Ложноположительный результат, FP = 1000 + 200 = 1200

Ложноотрицательный, FN = 400 + 400 = 800

Следовательно,

Точность = TP / (TP + FP) = 0.5

Отзыв = TP / (TP + FN) = 0,6

Следовательно,

F 1 = 2 * (точность * отзыв) / (точность + отзыв) = 0,54 ~ 0,5

Конечные ноты

Надеюсь, вам понравилось пройти тест и вы нашли решения полезными. Тест был сосредоточен на концептуальных, а также практических знаниях основ кластеризации и ее различных методов.

Я попытался развеять все ваши сомнения с помощью этой статьи, но если мы что-то упустили, дайте нам знать в комментариях ниже.Кроме того, если у вас есть какие-либо предложения или улучшения, которые, по вашему мнению, мы должны внести в следующую проверку навыков, вы можете сообщить нам об этом, оставив свой отзыв в разделе комментариев.

Связанные

Эффективная сортировка нейронных пиков с использованием разделения и объединения данных

Abstract

Сортировка нервных импульсов является предпосылкой для расшифровки полезной информации из электрофизиологических данных, записанных в головном мозге in vitro и / или in vivo.Значительные достижения в области нанотехнологий и нанотехнологий позволили нейробиологам и инженерам фиксировать электрофизиологическую активность мозга с очень высоким разрешением, скоростью передачи данных и точностью. Однако эволюция алгоритмов сортировки пиков для решения вышеупомянутого технологического прогресса и возможности количественной оценки наборов данных с более высокой плотностью несколько ограничена. Как контролируемые, так и неконтролируемые алгоритмы кластеризации работают хорошо, когда количество данных для количественной оценки невелико, однако их эффективность снижается с увеличением размера данных с точки зрения времени обработки и качества формируемых спайковых кластеров.Это делает сортировку нейронных спайков неэффективным процессом для работы с большими и плотными электрофизиологическими данными, записанными из мозга. Представленная работа направлена ​​на решение этой проблемы путем предоставления новой структуры предварительной обработки данных, которая может значительно повысить эффективность традиционных алгоритмов сортировки спайков. Предлагаемая структура проверена путем применения десяти широко используемых алгоритмов и шести больших наборов функций. Наборы признаков рассчитываются путем использования функций PCA и вейвлетов Хаара на трех широко распространенных больших наборах электрофизиологических данных для обеспечения согласованности в процессе кластеризации.Программное обеспечение MATLAB предложенного механизма также разработано и предоставлено для помощи исследователям, работающим в этой области.

Образец цитирования: Ul Hassan M, Veerabhadrappa R, Bhatti A (2021) Эффективная сортировка нервных импульсов с использованием подразделения и объединения данных. PLoS ONE 16 (2): e0245589. https://doi.org/10.1371/journal.pone.0245589

Редактор: Александрос Иосифидис, Орхусский университет, ДАНИЯ

Поступила: 21.08.2019; Принята к печати: 4 января 2021 г .; Опубликован: 10 февраля 2021 г.

Авторские права: © 2021 Ul Hassan et al.Это статья в открытом доступе, распространяемая в соответствии с условиями лицензии Creative Commons Attribution License, которая разрешает неограниченное использование, распространение и воспроизведение на любом носителе при условии указания автора и источника.

Доступность данных: Все соответствующие данные находятся в рукописи и ее вспомогательных информационных файлах.

Финансирование: Исследования полностью поддерживаются лабораторией нейронных и когнитивных систем Института исследований и инноваций интеллектуальных систем Университета Дикина “.Хотя у нас нет явного внешнего гранта, связанного с этой работой, работа финансируется лабораторией изнутри.

Конкурирующие интересы: Авторы заявили об отсутствии конкурирующих интересов.

Введение

Нейроинженерия – это междисциплинарная область исследований, которая обеспечивает платформу для совместной работы инженеров, ученых, неврологов и клиницистов для создания прочной и надежной сети связи между человеческим мозгом и компьютерами с использованием передовых инженерных процедур, методов, инструментов и алгоритмов [1 –3].Широко распространена гипотеза о том, что мозг передает информацию в виде срабатываний нейронов, то есть потенциала действия или всплесков в течение определенного интервала времени, известного как частота срабатывания нейронов. Нейрофизиологическое исследование этих мощных потенциалов действия или всплесков, исходящих от нейронной сети мозга, необходимо для выявления лежащих в основе поведения и свойств нейронов. Хорошее понимание нейронной сети или нервной системы человеческого мозга критически важно для разработки интерфейсов мозг-машина (ИМТ), нейропротезирования и всеобъемлющих сетей связи мозг-компьютер [4].

Электрофизиологический анализ в последние годы приобрел первостепенное значение для расшифровки полезной информации о лежащем в основе функциональном поведении мозга как в спонтанной, так и в стимулированной среде [5, 6]. Это проложило путь к новым открытиям в понимании влияния внешних стимулов, таких как лекарственные препараты [7] и инфекции, на функциональность мозга [8]. Исследователи успешно разработали нейронные декодеры из нейрофизиологических исследований внутринейронных записей первичной моторной коры человека для управления искусственными протезами [9].Электрофизиологические исследования также имеют большое значение при лечении пациентов, страдающих неврологическими заболеваниями или психическими расстройствами, особенно в случае эпилептических заболеваний. Кроме того, эти исследования сыграли жизненно важную роль в понимании влияния гамма-протокадгерина на регуляцию выносливости нейронной сети и создание новых нейронных синапсов [10].

Значение электрофизиологического исследования человеческого мозга заключается в перехвате нейронных сигналов с незначительным вмешательством в естественные функции мозга.В литературе можно найти множество электрофизиологических методов для мониторинга потенциалов действия или импульсов от нейронов, таких как внутриклеточные стеклянные электроды для пипеток [11], электроды с патч-зажимом [12, 13], внеклеточные одно- или многоточечные электроды [14] и оптические устройства визуализации [15, 16]. Среди всего прочего, внеклеточные записи с использованием микрочастиц электродов [17–19] в значительной степени предпочтительны в исследованиях из-за их относительно меньшего влияния на нормальное рабочее поведение нейронов [20].Внеклеточные записи далее подразделяются на инвазивные (in vivo) и неинвазивные (in vitro) подходы [21]. В подходе in vivo микроэлектроды, такие как зонд или тетрод (зонд с четырьмя электродами), хирургическим путем имплантируют в дублирующую область мозга. Тогда как при подходе in vitro нейроны культивируют на отдельных чашках, интегрированных с микроэлектродами [22]. Нейрофизиологическая технология, применяемая для регистрации потенциалов действия нейронов, очень продвинута, но все же еще очень незрела для записи потенциалов действия, исходящих от одного нейрона.Мозг состоит из плотно упакованных нейронов, которые в большинстве случаев одновременно возбуждают кодирование информации, состоящей из синхронизированных и коррелированных потенциалов действия [23, 24]. Нейроны, присутствующие в районе дублера или поблизости от него, при возбуждении вносят шум в нейронные записи [25, 26]. Поэтому для изучения и анализа поведения отдельных нейронов и объединения потенциалов действия, имеющих схожие черты, в определенные кластеры, применяется концепция «сортировки спайков» [27, 28].

Обзор записей in vivo и in vitro и полное описание этапов процесса сортировки спайков показаны на рис. 1. Сортировка спайков состоит из четырех основных шагов. Сначала необработанные данные фильтруются, чтобы минимизировать влияние шума. Работа Choi et al. в [29] имеет важное значение для уменьшения эффекта фонового шума и обнаружения полезных цепочек всплесков из нейронных записей при низком отношении сигнал / шум (SNR) с использованием оператора энергии Тигера с множественным разрешением (MTEO).Параликар и др. в [30] предложен метод виртуальной привязки (VR), основанный на среднем сигнале функционального электрода, и метод межэлектродной корреляции (IEC), основанный на коэффициенте корреляции между сегментами выбросов превышения порога для общего снижения шума. Обычный шум обычно возникает из-за электромиографической активности, артефактов движения и регистрации электрического поля, особенно у бодрствующих / ведущих себя субъектов. Pillow et al. в [30] предложен алгоритм двоичного преследования для значительного уменьшения влияния стохастической фоновой составляющей коррелированного гауссовского шума от нейронных записей.Takekawa et. В [31] работал над фильтрацией биологического шума из нейронной записи с использованием методики пиковой полосовой фильтрации. Полосовая фильтрация – обычная практика среди нейробиологов для уменьшения эффекта фонового шума. Затем следовало извлечение шипов [32]. Абелес и Гольштейн в [33] подробно рассказали об обнаружении множественных спайков. Методы обнаружения, основанные на пороговых значениях и интервалах между спайками, являются частыми и популярными среди исследователей [34]. Однако в предлагаемом алгоритме основное внимание уделяется вычислительной эффективности алгоритмов сортировки пиков, а не оценке пиков.Для предлагаемой исследовательской работы выбросы извлекаются с помощью меток, снабженных данными, чтобы сравнивать производительность различных алгоритмов без смещения из-за шумовых эффектов. Третий шаг в сортировке спайков – это выделение признаков обнаруженных спайков [35]. Самая последняя методика выделения признаков предложена Замани и Демосфенус в [36], однако методы выделения признаков, которые в основном практикуются исследователями, включают анализ главных компонентов (PCA) [37–39], вейвлет-преобразование [40–42] и вейвлет-пакет. Разложение [43].Последним шагом в этом процессе является объединение всплесков в определенные группы потенциала действия, имеющие схожие черты [44]. Для кластеризации ученые предложили многочисленные алгоритмы кластеризации в литературе [45–48], которые в основном подразделяются на две основные категории; Под наблюдением [49] и без контроля [50]. В контролируемой кластеризации количество кластеров предопределено, и алгоритмы заставляют пики соответствовать желаемому количеству предопределенных кластеров [51]. Принимая во внимание, что при неконтролируемой кластеризации алгоритмы, не имея предварительной информации о кластеризации, автоматически оценивают общее количество кластеров и на основе сходства в характеристиках пиков помечают пики в соответствующие группы [52].Неконтролируемая кластеризация более надежна и полезна, когда нет предварительных знаний о кластерах [53]. Алгоритмы сортировки пиков в основном используются в автономном режиме и реализованы для количественной оценки поведения на предварительно записанных наборах нейронных данных [54]. Однако исследователи разработали онлайн-алгоритмы сортировки спайков, которые могут количественно определять кластеры спайков на живых нейронных записях [55]. Последние достижения в области сортировки шипов представлены в [56].

Рис. 1. Обзор процесса сортировки спайков с записями in vivo и in vitro.

(a) Микроскопическое изображение нейронной сети в головном мозге. (b) Клетки мозга, культивируемые на решетках микроэлектродов (MEA). (c) Имплантированный зонд в мозг крысы для записи in vivo. (d) Система сбора данных для взаимодействия с MEAs (e) Компьютерная машина для обработки данных и сортировки пиков. (f) Многоканальный сбор и запись данных (g) Визуализация всего процесса сортировки спайков. (h) Исходные данные после отбора проб и амплификации. (i) шумовая фильтрация данных с использованием полосовых фильтров.(j) Пики, обнаруженные с использованием методов порогового значения или интервала между всплесками. (k) Извлечение признаков обнаруженных всплесков для уменьшения размерности данных. (l) Кластерные признаки после применения алгоритмов кластеризации извлекают пиковые признаки. (m) Сгруппированные шипы.

https://doi.org/10.1371/journal.pone.0245589.g001

Описание проблемы

Достижения в области нанотехнологий и нанотехнологий позволили нейробиологам и инженерам фиксировать электрофизиологическую активность мозга с очень высоким разрешением, скоростью передачи данных и точностью.Однако для расшифровки полезной информации из этих высокоплотных данных электродов важную роль играет производительность с точки зрения вычислительной скорости и точности этих алгоритмов сортировки пиков, независимо от их онлайн- и автономного характера.

Стивенсон и Кординг в [57] представили проблемы анализа данных, связанные с прогрессивными технологическими достижениями нейронных записей. Прогресс в технологиях нейронной записи, обеспечивающих одновременную многоканальную запись, по прогнозам, будет удваиваться каждые 7 лет, что приведет к высокой плотности и большому размеру данных.Подсчитано, что к 2025 году может быть достигнута одновременная запись от 1000 нейронов. Самый последний алгоритм автоматической сортировки спайков, предложенный Chung et al. в [58] также освещена проблема низкой вычислительной скорости алгоритмов сортировки спайков. Несмотря на то, что они предложили эффективный метод сортировки пиков, ему не хватает скорости, необходимой исследователям для получения оптимальных результатов при сортировке больших и высокоплотных наборов данных. Wild et al. в [59] изучалась оценка производительности широко используемых алгоритмов кластеризации.Результаты его исследования выявили зависимость скорости вычислений от размера данных или количества кластеризованных всплесков.

Чен и Цай в [60] исследовали проблему и предположили, что такое поведение связано со сложностью операций, задействованных в алгоритмах. Они сообщили, что для размера данных n спектральная кластеризация требует O ( n 2 ) (уравнение второго порядка) операций при построении графика и O ( n 3 ) (уравнение третьего порядка ) операции в собственном разложении.Эти уравнения второго и третьего порядка доказывают нелинейное поведение спектральной кластеризации. Чтобы мотивировать наш анализ, спектральная кластеризация была применена к пяти наборам данных переменной длины и рассчитано соответствующее время вычислений, как показано в таблице 1. График на рис. 2 четко отображает нелинейное поведение вычислительного времени, требуемого спектральной кластеризацией для завершения своих операций. относительно размера данных.

Зависимость скорости и времени вычислений от размера данных при сортировке спайков очень затруднила эффективное и точное определение общего количества нейронов в больших и плотных электрофизиологических данных.Более того, основываясь на работе Наполеона и Павалакоди по большим, плотным и многомерным данным о клетках рака молочной железы [64], точность алгоритмов кластеризации также так или иначе зависит от размера данных. С увеличением размера данных количество ложных срабатываний и отрицательных результатов при сортировке пиковых значений значительно возрастает, что снижает общую эффективность и производительность алгоритмов, задействованных в процессе.

Несмотря на эти проблемы, в литературе исследователи разработали множество алгоритмов сортировки пиков для решения проблемы обработки больших и плотных электрофизиологических данных.Однако ограниченная работа была посвящена повышению скорости и эффективности вычислений за счет изменения способа ввода данных в алгоритмы сортировки пиков. Предлагаемый алгоритм предварительно обрабатывает данные, чтобы значительно сократить время вычислений и повысить скорость и эффективность широкого спектра существующих алгоритмов сортировки пиков. Предлагаемый алгоритм имеет большой потенциал для применения в подходах к параллельным вычислениям для дальнейшего повышения эффективности алгоритмов сортировки пиков для онлайн-анализа пиков.

Предлагаемый механизм

Новизна предложенного механизма заключается в его способности работать с существующими алгоритмами сортировки спайков с максимальной эффективностью путем введения подмножеств оптимальной длины больших электрофизиологических данных на этапе кластеризации. Общий механизм состоит из трех основных этапов, как показано на рис. 3. 1) Первый этап включает в себя подразделение данных на подмножества данных оптимальной длины. Процедура определения оптимальной длины обсуждается в следующем разделе.2) Второй шаг включает кластеризацию пиков в подмножествах данных с использованием обычных алгоритмов сортировки пиков. 3) Последний шаг включает объединение кластеризованных подмножеств. Окончательные объединенные кластеры затем используются для маркировки обнаруженных спайков, представляющих полные большие электрофизиологические данные, в соответствующие нейронные классы. Сравнение обычной сортировки спайков и предлагаемого алгоритма показано на рис. 4. Стоит отметить, что предлагаемый механизм имеет дело с подразделением и объединением данных для улучшения и повышения производительности существующих алгоритмов кластеризации и не изменяет внутреннюю работу алгоритмов. использованный в этом исследовании.Недавно разработанный алгоритм кластеризации «Mountainsort» Чанг и др. [58] использует подход, основанный на плотности, для кластерных пиков, также может использоваться с этим механизмом для эффективной сортировки пиков.

Рис. 3. Иллюстрация полного предложенного механизма.

Первый шаг – разделить большие электрофизиологические данные на более мелкие группы. Второй шаг включает кластеризацию подмножеств данных с использованием обычных алгоритмов сортировки спайков. Последний шаг включает в себя объединение или слияние кластеризованных подмножеств данных для получения оптимальной кластеризации полных больших электрофизиологических данных.

https://doi.org/10.1371/journal.pone.0245589.g003

Аналогичный подход разделения данных используется Pachitariu et al. в [65] для алгоритма KiloSort. Алгоритм разделяет нейронные данные с высокой плотностью на небольшие партии и использует их для обработки среднего времени фильтрации данных в графическом процессоре, что сокращает общее время процесса сортировки пиков. Однако кластеризация пиков по-прежнему применяется в полных больших наборах нейронных данных, что привело к снижению вычислительной скорости сортировки пиков на этапе кластеризации.Кроме того, в отличие от предложенного механизма, механизм разделения данных ограничен KiloSort и может быть неприменим для других алгоритмов сортировки всплесков. Кроме того, этот алгоритм не смог ввести понятие оптимальной длины для подразделения данных, которое является важным параметром, который следует учитывать при повышении скорости вычислений и операционных затрат процесса сортировки пиков.

Подробное описание этапов предлагаемого механизма представлено в следующих разделах:

Подразделение данных

Разделение больших электрофизиологических данных на подмножества оптимальной длины является наиболее важным компонентом предлагаемого механизма.Чтобы сформировать подмножества данных, пусть D представляет электрофизиологические данные, записанные в одном канале сбора данных. Общее количество N оптимальных подразделений оценивается как в уравнении (1) (1) где L – длина данных D и O L – оптимальная длина для подмножеств данных. Процедура расчета O L представлена ​​в следующем разделе.

Подмножества данных затем оцениваются, как в уравнении (2).(2) где S d ( n ) представляет n количество подразделенных подмножеств данных больших данных D .

Определение оптимальной длины (

O L ) для подмножеств данных

O L – это диапазон значений, из которого, если размер данных выбирается для выполнения кластеризации, качество кластеризации и вычислительная эффективность традиционных алгоритмов значительно улучшаются. O L параметр зависит от типа алгоритма, а не от динамики данных. Поэтому его нужно оценивать только один раз для каждого алгоритма. Параметр O L для десяти обычно используемых алгоритмов кластеризации, используемых в этом исследовании, оценивается и показан на рис. 5b.

Рис. 5. Определение оптимальной длины O L .

(a) Иллюстрирует описание этапов идентификации O L для алгоритмов сортировки пиков.График зависимости времени вычисления от размера данных. Ось X показывает длину данных, увеличивающуюся от нуля до 2000, а ось Y показывает соответствующее время, затраченное алгоритмом кластеризации для выполнения процесса кластеризации, в миллисекундах. Вычислительное время – это время обработки после того, как фильтр movmean (длина 20 точек данных) отфильтровал нежелательную рябь на графике и вернул гладкие кривые. Обнаружены резкие изменения на графике, принимая 0,1 максимальной скорости изменения времени вычислений в качестве порогового значения (d) Выявленная оптимальная длина O L подмножеств данных, используемых для разделения данных.б) Оптимальная длина ( O L ) для десяти обычно используемых алгоритмов кластеризации. Среднее значение по результатам десяти повторных анализов дается как устойчивость меры при оптимальной длине для разделения данных.

https://doi.org/10.1371/journal.pone.0245589.g005

Чтобы понять зависимость времени вычислений от размера данных, кластеризация выполняется поэтапно. При каждом приращении размер или длина данных увеличивается, и время вычислений отображается в зависимости от размера данных, как показано на рис. 5a.Размер данных, для которых алгоритм кластеризации показывает более плавное поведение, называется O L , и его необходимо оценить для получения оптимальных результатов кластеризации.

В этой исследовательской работе O L оценивается с использованием работы Киллика [66]. Используется порог 0,1 максимальной скорости изменения времени вычислений. Первое изменение времени вычислений выше порога оценивается как оптимальная длина подмножества данных.

Предложенная в данной исследовательской работе процедура вычисления O L реализована на десяти вышеупомянутых обычно используемых алгоритмах кластеризации. Процедура повторяется сотни раз, чтобы получить среднее значение O L как эффективную меру устойчивости результатов. Расчетные данные представлены на рис. 5б. Замечено, что производительность алгоритмов кластеризации не зависит от динамики данных и методов извлечения признаков. O L для всех алгоритмов, принятых в этом исследовании, находится примерно в одном и том же диапазоне для всех трех используемых данных и шести наборов функций. Следовательно, вычислительная производительность алгоритмов зависит от длины набора данных, а не от динамики данных.

Отклонение ( O L ) от расчетной оптимальной точки может привести к неэффективной сортировке пиков. Разделение данных с использованием оптимальной длины – это компромисс между вычислениями, вовлеченными в процесс кластеризации и процесс унификации.( O L ) формирует прямую связь с вычислениями кластеризации и обратную связь с вычислениями, участвующими в процессе унификации.

Кластеризация данных

Разделение данных сопровождается кластеризацией подмножеств данных с использованием обычных алгоритмов сортировки пиков. Десять алгоритмов, как показано на рис. 5, используются в этом исследовании из-за их широкой адаптируемости в исследованиях сортировки спайков. Предлагаемый алгоритм не зависит от процедуры кластеризации; следовательно, в этом механизме может быть использован любой другой метод кластеризации.

Объединение подкластеров

После того, как кластеризация выполняется для каждого подмножества данных, выполняется объединение подкластеров. Подкластеры объединяются путем определения перекрытия между ограниченными областями подкластеров. Ограниченная область (BR) представляет собой размерный набор « м », который состоит из минимальных и максимальных вариаций форм сигналов размерных пиковых характеристик « м » в каждом измерении для соответствующего подкластера. Ограниченная область для подкластера j th задается соотношением в уравнении (3).(3)

Где BR j , i – размерная ограниченная область ‘ m ‘ для подкластера j th с j ∈ [1, 2, 3, .., k ], а « k » – общее количество подкластеров, участвовавших в процессе объединения. – минимальные и максимальные вариации форм сигналов пиковых характеристик для j th субкластера и в i th измерении и i ∈ [1, 2, 3,…, m ] .

В этом исследовании, поскольку 10 функций PCA или 10 вейвлетов используются для преобразования формы волны всплеска в форму волны функции всплеска. Таким образом, « м » в данном конкретном случае равно 10, а BR – это 10-мерный набор с минимальными и максимальными значениями, обеспечивающими вариацию форм сигналов пиковых характеристик в каждом измерении для конкретного субкластера.

Ограниченная область вычисляется для всех подкластеров « k », участвовавших в процессе объединения. Подкластеры, имеющие перекрывающиеся ограниченные области во всех измерениях, объединяются вместе.Процесс объединения для двумерных субкластеров показан на рисунке 6. На рисунке 6 также показано, как субкластеры объединяются в трех разных сценариях, т.е. 1) нет перекрывающейся области между субкластерами; 3) множественные перекрывающиеся субкластеры.

Чтобы исключить влияние выбросов при выборе ограниченной области для процесса унификации, формы сигналов пиковых характеристик фильтруются в каждом подкластере. Фильтр, предложенный в этом исследовании, основан на евклидовом расстоянии.Подкластер, имеющий формы волны характерных пиков размерности « м », должен иметь размерный центроид « C » « м ». Важно отметить, что полная форма волны размерного пика « м » рассматривается как единая точка в пространственном пространстве « м » при вычислении евклидова расстояния. Поэтому для каждой формы сигнала пиковой характеристики вычисляется евклидово расстояние от формы сигнала пиковой характеристики до центроида его субкластера. Соотношение для вычисления евклидовых расстояний приведено в уравнении (4).(4) ED l ( C i , S l , i ) – евклидово расстояние, рассчитанное для l th особенность формы волны S l , i и центроид субкластера C i . l ∈ [1, 2, 3, 4…, n ] и i ∈ [1, 2, 3,…, m ], где « n » – общее количество шипов в субкластер, а « м » – размер формы волны пиковой характеристики.

Поскольку евклидово расстояние вычисляется на основе уравнения (4), создается матрица евклидова расстояния (EDM) n × 1, как в уравнении (5). (5)

Эта матрица EDM используется для выявления выбросов в формах сигналов с пиковой характеристикой. Из EDM рассчитывается среднее значение « μ » и стандартное отклонение « σ » с использованием уравнений (6) и (7). (6) (7)

Используя среднее значение и стандартное отклонение кривой нормального распределения, значения евклидова расстояния преобразуются в Z-баллы с помощью уравнения (8).(8)

Распределение Z-баллов, определенное уравнением (8), затем используется для идентификации выбросов данных в матрице EDM, заданной уравнением (5). С этой целью мы рассмотрели два сценария; 1) когда распределение оценок Z матрицы EDM является нормальным и 2) когда распределение оценок Z матрицы EDM искажено. Существует множество методов, с помощью которых можно определить нормальность распределения данных, как в [67–69]. Однако в этом исследовании нормальность распределения Z-баллов матрицы EDM определяется с использованием метода межквартильного размаха IQR [70].

Квартили – это три точки, которые делят набор данных на четыре равные группы, каждая группа содержит четверть данных, для набора значений данных, которые расположены в порядке возрастания или убывания. Q1, Q2 и Q3 представляют значения первого, второго и третьего квартилей. Межквартильный размах (IQR) – это в основном разница между первым квартилем (Q1) и третьим квартилем (Q3). IQR матрицы евклидовых расстояний, отсортированной по возрастанию, можно определить с помощью соотношения, приведенного в уравнении (9).(9)

Где Q 1 – первый квартиль, и это медиана нижней половины евклидовых расстояний, отсортированных в порядке возрастания, а Q 3 – третий квартиль, и это медиана верхней половины евклидовых расстояний, отсортированных в порядке возрастания. .

Если расстояние между Q 1 и Q 3 от медианы полного набора данных, содержащего евклидовы расстояния, одинаково, данные распределены нормально и колоколообразная кривая симметрична.Если расстояние от средней точки данных до Q 1 больше, чем Q 3, распределение данных смещено влево, а если Q 3 больше, чем Q 1, распределение данных смещено вправо. .

Для нормального распределения данных, когда колоколообразная кривая симметрична, действует эмпирическое правило и фильтр выбросов (OF) определяется как диапазон между μ ± 2 σ и определяется уравнением (10 ). (10)

Для несимметричных или скошенных влево и вправо распределений: 1.5 Фильтр межквартильного размаха (1,5 IQR ) используется для определения выбросов субкластера. Коэффициент 1,5 получен эмпирическим путем и используется новыми исследователями статистики для искаженных данных для выявления выбросов [71, 72]. Таким образом, в этом исследовании 1.5 IQR фильтр выбросов (OF) разработан для удаления выбросов данных в искаженном распределении, и он задается уравнением (11). (11)

Все указанные пики, евклидово расстояние которых находится в пределах диапазона OF, учитываются при оценке ограниченной области в уравнении (3) для объединения субкластеров.

Аналогичный подход принят Аксеновой и соавт. в [73] для обучения алгоритму сортировки спайков в режиме онлайн с использованием фазового пространства. Их алгоритм ориентирован на эффективное снижение шума, а не на оптимизацию вычислительной эффективности.

Оценка производительности предложенного алгоритма

В данной исследовательской работе производительность предложенного алгоритма оценивается с использованием двух показателей: времени вычислений и качества кластеризации. Сравнительные характеристики предложенного алгоритма по сравнению с обычным алгоритмом представлены на рис. 7 (а) и 7 (б).

Рис. 7. Иллюстрация повышения скорости вычислений и точности кластеризации.

(a) Повышенная скорость вычислений в процентах от дублеров десяти алгоритмов в шести больших наборах нейронных функций. (b) Повышенная точность кластеризации в процентах от дублеров десяти алгоритмов в шести больших наборах нейронных функций. Предложенный метод разделения и объединения данных показал положительную тенденцию в улучшении производительности алгоритмов сортировки спайков. Улучшение в сокращении времени вычислений является значительно большим, в то время как из-за зрелости алгоритмов сортировки пиков точность улучшения относительно ниже в некоторых алгоритмах сортировки пиков.Были представлены средние результаты для 10 повторяющихся анализов, и стоит отметить, что предложенный механизм показал многообещающие результаты улучшения по всем типам данных и алгоритмам сортировки пиков.

https://doi.org/10.1371/journal.pone.0245589.g007

Для проверки в предлагаемой исследовательской работе используются десять наиболее широко применяемых алгоритмов кластеризации. Алгоритмы включают MeanShift (MS) [74], пространственную кластеризацию приложений с шумом на основе плотности (DBSCAN) [75], Kmeans (KM) [76], Kmedoids (KMD) [77], Fuzzy C means (FCM) [ 78], вариационная байесовская гауссовская модель смеси (VBGMM) [79], модель максимальной гауссовской смеси ожидания (EMGMM) [80], агломеративная иерархическая кластеризация (AHC) [81], Birch (BH) [82] и точки упорядочивания для идентификации Структура кластеризации (ОПТИКА) [83].

Для количественной оценки вычислительной эффективности предложенного алгоритма используются три набора данных, о которых сообщает Кирога [84], из-за их более широкой применимости и доступности достоверных данных. Эти наборы данных включают два (2) смоделированных набора данных 1 (D1) и набор данных 2 (D2) и один набор данных человека 3 (D3). Человеческие данные получены в результате многократной записи в височной доле пациента с эпилепсией из лаборатории Ицхака Фрида в Калифорнийском университете в Лос-Анджелесе [84]. Информация о пространственно-временном перекрытии всплесков в результате многокомпонентных записей может быть идентифицирована с использованием алгоритма Matching Persuit [85].Однако в этом исследовании всплески нескольких единиц уже обнаружены и помечены в реальных условиях. Метки для трех выделенных кластеров предоставляются для каждого набора данных D1, D2 и D3 в их соответствующих наземных точках.

Каждый импульсный сигнал состоит из 64 отсчетов. Вейвлеты Хаара и функции PCA используются для уменьшения размерности данных при сохранении дисперсии данных и информации о выбросах. В случае преобразования вейвлетов Хаара оптимальные характеристики вейвлетов были выбраны после исследования Кироги [79], который реализовал четырехуровневое разложение с несколькими разрешениями.Сгенерированные 64 вейвлет-коэффициента обеспечивают уникальную характеристику всплеска в различных масштабах и в разное время. Поскольку каждый класс спайков имеет различное мультимодальное распределение, для выбора оптимальных характеристик вейвлета использовалась модификация Лиллиэфорса критерия Колмогорова-Смирнова (KS) на нормальность [81]. Максимальное отклонение характеристик мультимодального распределения от нормальности определяет оптимальные характеристики. Мы отсылаем читателей к Кироге [79] для дальнейшего объяснения. В этом контексте 10 вейвлет-характеристик с наибольшим отклонением от нормальности считаются оптимальными вейвлет-характеристиками.

Аналогичным образом, в этом исследовании были выбраны 10 функций PCA для проверки вычислительной и производительной эффективности предложенных алгоритмов по сравнению с традиционными. Компоненты PCA не масштабируются для соответствия объясненным отклонениям. Индивидуальные дисперсии компонентов PCA накапливаются, и для анализа выбирается оптимальное количество компонентов PCA, которое дает не менее 85% совокупной объясненной дисперсии. Для получения не менее 85% совокупной объясненной дисперсии 64-мерных данных о шипах, используемых в этом исследовании, требуется 10 функций PCA.

Важно отметить, что точность алгоритмов кластеризации может зависеть от размерности данных и количества используемых оптимальных наборов функций. Однако в этом исследовании одни и те же 10-мерные функции используются для всех алгоритмов для поддержания согласованности при проверке результатов производительности.

Исследования проводятся на персональном компьютере (ПК), состоящем из процессора Intel (R) Pentium (R) G4560 @ 3,5 ГГц, 8 ГБ ОЗУ и 64-разрядной операционной системы Windows 10.

Производительность по времени или скорости вычислений

Для исследования и проверки производительности предложенного алгоритма, с точки зрения вычислительного времени, как указано в таблице 2, оценивается с использованием выражения (12). (12)

Где C t и P t – время вычисления кластеризации с использованием обычного и предложенного алгоритмов соответственно.

Показатели точности кластеризации

Сгруппированные пики от алгоритмов сортировки пиков обычно оцениваются с использованием индексов валидации [46].В этой работе точность кластеризации, как описано в [86] и (13), принята в качестве индекса проверки и вычисляется с использованием матрицы неточностей [87], как в (14). (13) (14)

Где A и C – индекс точности и матрица неточностей, соответственно. м – общее количество оцененных кластеров, а q – общее количество кластеров в наземной действительности. представляет количество пиков, оцененных и точно сгруппированных относительно меток, предоставленных с достоверными данными о пиках.Где e i относится к расчетному кластерному индексу, а g i наземная истина. Индекс точности показывает процент точно отнесенных всплесков к кластерам, описанным в реальных условиях. При расчете точности учитываются два сценария.

м = q : когда количество оцененных кластеров равно количеству кластеров в наземной истине. Это приводит к квадратной матрице путаницы размером м | m = q , и сумма диагоналей матрицы неточностей, деленная на общее количество всплесков, дает процент точности, как в уравнении (13).

м q : когда количество кластеров, оцененных в м , не равно количеству кластеров в наземной истине q , матрица путаницы генерируется путем принятия только доминирующих оцененных кластеров м равными общее количество кластеров q в чистом виде. В случае оцененных кластеров меньше, чем кластеры наземной истинности, то есть m < q , матрица неточностей дополняется нулями. Точность рассчитывается с использованием выражения (13).

Процент повышения точности оценивается с использованием разницы в точности между предлагаемым и традиционным методами, которая представлена ​​в таблице 3.

Результаты кластеризации

Чтобы подчеркнуть улучшение качества кластеризации, визуальное представление кластеров, оцененных с использованием предлагаемых и традиционных методов, использующих ОПТИКУ в наборе данных 3 с функциями PCA и DBSCAN в наборе данных 1 с функциями вейвлета, дает повышение точности результатов кластеризации на 49,99 и 56,87 процентов относительно достоверности данных, как в таблице 3.Иллюстрация результатов кластеризации для вышеупомянутых примеров показана на рисунках 8 и 9 соответственно. Из результатов видно, что предлагаемая методология дает значительно лучшие результаты по сравнению с традиционными методами.

Рис. 8. Сравнение результатов кластеризации, полученных с использованием обычного и предложенного механизма, использующего ОПТИКУ с набором данных 3 и функциями PCA.

(a) Результаты кластеризации с использованием обычного метода сортировки пиков, примененного к полному набору данных, содержащему 3740 пиков.(b) Индикация производительности результатов кластеризации на основе времени / скорости вычислений и точности кластеризации. (c) – (f) Результаты кластеризации с использованием предложенного механизма сортировки спайков, применяемого к подразделению данных оптимальной длины, например, 935 для ОПТИКИ. (g) Объединение подразделенных подмножеств кластеров. (h) Индикация производительности результатов кластеризации с использованием предложенного метода сортировки по спайкам.

https://doi.org/10.1371/journal.pone.0245589.g008

Рис. 9. Сравнение результатов кластеризации, полученных с использованием обычного и предложенного механизма, использующего DBSCAN с набором данных 1 и функциями вейвлета.

(a) Результаты кластеризации с использованием обычного метода сортировки пиков, примененного к полному набору данных, содержащему 3405 пиков. (b) Индикация производительности результатов кластеризации на основе времени / скорости вычислений и точности кластеризации. (c) – (f) Результаты кластеризации с использованием предложенного механизма сортировки спайков, применяемого к подразделению данных оптимальной длины, например 1135 для DBSCAN. (g) Объединение подразделенных подмножеств кластеров. (h) Индикация производительности результатов кластеризации с использованием предложенного метода сортировки по спайкам.

https://doi.org/10.1371/journal.pone.0245589.g009

Обсуждение

По результатам и оценке производительности в основном видно, что предложенный алгоритм демонстрирует постоянное улучшение по всем алгоритмам и наборам данных. Точность улучшена до 56,87%, а время вычислений сокращено до 84,7%. Таким образом, предлагаемый механизм оказывает значительное влияние на повышение скорости и точности процесса сортировки шипов. Что касается точности кластеризации, DBSCAN демонстрирует улучшение точности до 56.87 процентов, за ними следует ОПТИКА (49,99 процента). Что касается времени вычислений, Kmeans показывает самое высокое увеличение скорости вычислений на 84,7 процента, за ним следует BIRCH с увеличением скорости вычислений на 83,15 процента. Что касается сложности настройки параметров, модели MeanShift, FCM и Gaussian Mixture требуют настройки одного параметра, DBSCAN и OPTICS требуют настройки двух, а BIRCH требует настройки трех параметров для выполнения своих операций. Все контролируемые алгоритмы кластеризации, включая Kmeans, Kmedoids и Agglomerative, требуют настройки одного параметра.Что касается надежности, Kmeans, Kmedoids, FCM дают разные результаты на каждой итерации, однако Meanshift, EMGMM, VMGMM, Agglomerative, DBSCAN, OPTICS, BIRCH сходятся к одним и тем же результатам после каждой итерации. Для простоты изложения представленные результаты усреднены по 10 повторениям.

Программная реализация

Программное обеспечение для предлагаемого механизма реализовано с использованием MATLAB, как показано на рис. 10. Бесплатный доступ к программному обеспечению с открытым исходным кодом для академических целей предоставляется с подробными инструкциями для пользователя в Интернете по адресу: https: // github.com / ermasood / Обработка больших наборов данных для кластеризации. Программа выдает метки кластеризации с высокой точностью, быстро и эффективно. Первый график в окне программного обеспечения показывает сгруппированные пики, а второй график иллюстрирует сгруппированные характеристики введенных данных. Предоставленные коды MATLAB протестированы на версиях MATLAB 2019b и 2018b. Кроме того, для создания привлекательных цветовых комбинаций и оттенков для красивой визуализации требуется файл ‘Linspecer.m’ [88] от MathWorks.

Заключение

Сортировка нервных спайков является предпосылкой для расшифровки полезной информации из электрофизиологических данных, записанных в головном мозге in vitro и / или in vivo. Значительные достижения в области нанотехнологий и производства нанотехнологий позволили нейробиологам и инженерам фиксировать электрофизиологическую активность мозга с очень высоким разрешением, скоростью передачи данных и точностью. Однако эволюция алгоритмов сортировки пиков для решения вышеупомянутого технологического прогресса и возможности количественной оценки наборов данных с более высокой плотностью несколько ограничена.Эксперименты показывают, что большие наборы данных сильно влияют на время вычислений, необходимое для выполнения кластеризации. Для решения этой проблемы предлагается новый механизм кластеризации, позволяющий эффективно и с более высокой точностью обрабатывать большие наборы данных. Предлагаемый механизм решает проблему большого времени вычислений и снижения точности традиционного метода. Предложенные алгоритмы продемонстрировали улучшение на 84% и 56% с точки зрения времени вычислений и точности кластеризации соответственно.Предлагаемая структура проверена путем применения десяти широко используемых алгоритмов кластеризации и шести больших наборов данных. Функции PCA и вейвлетов Хаара используются для согласованности в процессе кластеризации. Программное обеспечение MATLAB предложенного механизма также разработано и предоставлено для помощи исследователям, работающим в этой области.

Ссылки

  1. 1. Dominique MD. Что такое нейронная инженерия? Журнал нейронной инженерии. 2006; 4 (4).
  2. 2. Бхатти А., Ли К. Х., Гарместани Х., Лим С. П..Новые тенденции в нейроинженерии и нейронных вычислениях. Springer; 2017.
  3. 3. Он Б. Нейронная инженерия. Springer Science & Business Media; 2007.
  4. 4. Элиасмит C, Андерсон CH. Нейронная инженерия. Массачусетский технологический институт. 2003 ;.
  5. 5. Габурро Дж., Бхатти А., Харпер Дж., Жанна И., Дернли М., Грин Д. и др. Нейротропизм и изменения поведения, связанные с инфекцией Зика, у переносчика Aedes aegypti. 2018; 7 (1): 1–11.
  6. 6. Габурро Дж., Дюшемин Дж. Б., Парадкар П. Н., Нахаванди С., Бхатти А. Дж. Ср. Электрофизиологические доказательства линии клеток комаров RML12 в отношении дифференцировки нейронов под действием 20-гидроксиэкдисдона. 2018; 8 (1): 10109.
  7. 7. Бари МАУ, Габурро Дж, Михальчик А., Экланд М.Л., Уильямс С., Бхатти А. В: Механизм докозагексаеновой кислоты в усилении нейрональной передачи сигналов. Springer; 2017. с. 99–117.
  8. 8. Габурро Дж., Бхатти А., Сундарамурти В., Дирнли М., Грин Д., Нахаванди С. и др.Гипервозбуждение, вызванное вирусом Зика, предшествует гибели первичного нейрона мыши. 2018; 15 (1): 79.
  9. 9. Мусса-Ивальди Ф.А., Миллер Л.Е. Интерфейсы мозг-машина: вычислительные и клинические потребности соответствуют основам нейробиологии. ТЕНДЕНЦИИ в неврологии. 2003. 26 (6): 329–334. pmid: 12798603
  10. 10. Лефевр JL, Чжан Y, Мейстер M, Ван X, Sanes JR. Y-Протокадгерины регулируют выживание нейронов, но не обязательны для формирования цепей в сетчатке. Разработка. 2008. 135 (24): 4141–4151.pmid: 1
  11. 44
  12. 11. Ли А.К., Маннс И.Д., Сакманн Б., Брехт М. Запись целых клеток у свободно движущихся крыс. Нейрон. 2006. 51 (4): 399–407. pmid: 166
  13. 12. Спира М.Э., Хай А. Технологии многоэлектродных матриц для нейробиологии и кардиологии. Природные нанотехнологии. 2013; 8 (2): 83. pmid: 23380931
  14. 13. Стюарт Г., Додт Х., Сакманн Б. Записи патч-зажима сомы и дендритов нейронов в срезах мозга с использованием инфракрасной видеомикроскопии.Pflügers Archiv. 1993. 423 (5-6): 511–518. pmid: 8351200
  15. 14. Чжан Дж., Лайвалла Ф., Ким Дж. А., Урабе Х., Ван Вагенен Р., Сонг Ю. К. и др. Интегрированное устройство для оптической стимуляции и пространственно-временной электрической регистрации нервной активности в светочувствительной ткани мозга. Журнал нейронной инженерии. 2009; 6 (5): 055007. pmid: 19721185
  16. 15. Цуй X, Ли В.А., Рафаэль Ю., Уилер Дж. А., Хетке Дж. Ф., Андерсон Д. Д. и др. Модификация поверхности нейронных записывающих электродов смесями проводящих полимеров и биомолекул.Журнал исследований биомедицинских материалов. 2001. 56 (2): 261–272. pmid: 11340598
  17. 16. Бужаки Г. Крупномасштабная запись нейронных ансамблей. Природа нейробиологии. 2004; 7 (5): 446. pmid: 15114356
  18. 17. Мудрый К.Д., Наджафи К. Методы микротехнологии для интегрированных датчиков и микросистем. Наука. 1991. 254 (5036): 1335–1342. pmid: 1962192
  19. 18. Чиксвари Дж., Хенце Д.А., Джеймисон Б., Харрис К.Д., Сирота А., Барто П. и др. Массивно-параллельная регистрация единичного и локального потенциалов поля с помощью кремниевых электродов.Журнал нейрофизиологии. 2003. 90 (2): 1314–1323. pmid: 12

    0
  20. 19. Чжан Дж., Нгуен Т., Когилл С., Бхатти А., Луо Л., Ян С. и др. Обзор методов оценки кластеров и их применения к данным нейронных всплесков. Журнал нейронной инженерии. 2018; 15 (3). pmid: 29498353
  21. 20. Веерабхадраппа Р., Лим К., Нгуен Т., Берк М., Тай С., Монаган П. и др. Единый подход селективной сортировки для анализа многоэлектродных внеклеточных данных. Научные отчеты. 2016; 6: 28533.pmid: 27339770
  22. 21. Худхаир Д., Нахаванди С., Гарместани Х., Бхатти А. В: Массивы микроэлектродов: архитектура, проблемы и инженерные решения. Springer; 2017. с. 41–59.
  23. 22. Вирабхадраппа Р., Бхатти А., Берк М., Тай С.Дж., Нахаванди С. Иерархическая оценка нейронной активности посредством явной идентификации синхронных во времени всплесков. Нейрокомпьютеры. 2017; 249: 299–313.
  24. 23. Хеттиараччи И.Т., Лакшманан С., Бхатти А., Лим С., Пракаш М., Баласубраманиам П. и др.Хаотическая синхронизация нейронов Хиндмарша – Роуза, связанных с временной задержкой, посредством нелинейного управления. Нелинейная динамика. 2016; 86 (2): 1249–1262.
  25. 24. Рей Х. Г., Педрейра С., Кирога Р. Кв. Прошлое, настоящее и будущее методов сортировки шипов. Бюллетень исследований мозга. 2015; 119: 106–117. pmid: 25931392
  26. 25. Кройц Т., Чичарро Д., Хоутон С., Анджеяк Р.Г., Морманн Ф. Мониторинг синхронности спайкового поезда. Журнал нейрофизиологии. 2012. 109 (5): 1457–1472. pmid: 23221419
  27. 26.Коричневый EN, Kass RE, Mitra PP. Анализ данных множественных нейронных пиков: современные проблемы и задачи будущего. Природа нейробиологии. 2004; 7 (5): 456. pmid: 15114358
  28. 27. Einevoll GT, Franke F, Hagen E, Pouzat C, Harris KD. На пути к надежной записи спайк-поездов от тысяч нейронов с помощью мультиэлектродов. Современное мнение в нейробиологии. 2012; 22 (1): 11–17. pmid: 22023727
  29. 28. Чжоу Х., Мохамед С., Бхатти А., Лим С. П., Гу Н, Хаггаг С. и др.Сортировка спайков с использованием скрытых марковских моделей. В: Международная конференция по обработке нейронной информации. Springer ;. п. 553–560.
  30. 29. Чой Дж. Х., Юнг Х. К., Ким Т. Новый детектор потенциала действия, использующий MTEO и его влияние на системы сортировки шипов при низких отношениях сигнал / шум. IEEE Transactions по биомедицинской инженерии. 2006. 53 (4): 738–746. pmid: 16602581
  31. 30. Параликар К.Дж., Рао С.Р., Клемент Р.С. Новые подходы к устранению артефактов общего шума в записях с массивов интракортикальных микроэлектродов: межэлектродная корреляция и виртуальная привязка.Журнал нейробиологических методов. 2009. 181 (1): 27–35. pmid: 19394363
  32. 31. Такекава Т., Ота К., Мураяма М., Фукаи Т. Обнаружение спайков по зашумленным нейронным данным в записях линейного зонда. Европейский журнал нейробиологии. 2014; 39 (11): 1943–1950. pmid: 24827558
  33. 32. Гибсон С., Джуди Дж. В., Маркович Д. Сортировка по спайку: первый шаг в декодировании мозга: первый шаг в декодировании мозга. Журнал обработки сигналов IEEE. 2012. 29 (1): 124–143.
  34. 33.Абелес М, Гольдштейн МХ. Анализ мультиспайкового поезда. Труды IEEE. 1977; 65 (5): 762–773.
  35. 34. Абэ С. В: Выделение признаков и извлечение. Springer; 2010. с. 331–341.
  36. 35. Адамос Д.А., Космидис Е.К., Теофилидис Г. Оценка производительности алгоритмов сортировки спайков на основе PCA. Компьютерные методы и программы в биомедицине. 2008. 91 (3): 232–244. pmid: 18565614
  37. 36. Замани М., Демосфенус А. Извлечение признаков с использованием выборки экстремумов дискретных производных для сортировки спайков в имплантируемых нервных протезах верхних конечностей.IEEE Transactions по нейронным системам и реабилитационной инженерии. 2014. 22 (4): 716–726. pmid: 24760942
  38. 37. Шохам С., стипендиат М.Р., Норманн Р.А. Надежная автоматическая сортировка пиков с использованием смесей многомерных t-распределений. Журнал нейробиологических методов. 2003. 127 (2): 111–122. pmid: 12

    1

  39. 38. Лагерлунд, ТД, Шарбро Ф.В., Бусакер, NE. Пространственная фильтрация многоканальных электроэнцефалографических записей посредством анализа главных компонентов путем разложения по сингулярным значениям.Журнал клинической нейрофизиологии. 1997. 14 (1): 73–82. pmid: 62
  40. 39. Takekawa T, Isomura Y, Fukai T. Точная сортировка спайков для многоблочных записей. Европейский журнал нейробиологии. 2010. 31 (2): 263–272. pmid: 20074217
  41. 40. Озкараманли Х., Бхатти А., Билгехан Б. Мультивейвлеты из B-сплайн суперфункций с порядком аппроксимации. Обработка сигналов. 2002. 82 (8): 1029–1046.
  42. 41. Бхатти А., Озкараманли Х. Мультивейвлеты M-диапазона из сплайн-суперфункций с порядком аппроксимации.В: Акустика, речь и обработка сигналов (ICASSP), Международная конференция IEEE 2002 г. т. 4. IEEE ;. п. IV – 4172 – IV – 4172.
  43. 42. Хулата Э., Сегев Р., Бен-Джейкоб Э. Метод сортировки и обнаружения всплесков, основанный на вейвлет-пакетах и ​​взаимной информации Шеннона. Журнал нейробиологических методов. 2002. 117 (1): 1–12. pmid: 12084559
  44. 43. Hulata E, Segev R, Shapira Y, Benveniste M, Ben-Jacob E. Обнаружение и сортировка нейронных всплесков с использованием вейвлет-пакетов.Письма с физическим обзором. 2000; 85 (21): 4637. pmid: 11082615
  45. 44. Hartigan JA. Алгоритмы кластеризации. 1975 ;.
  46. 45. Штейнбах М., Карипис Г., Кумар В. Сравнение методов кластеризации документов. В: Практикум KDD по интеллектуальному анализу текста. т. 400. Бостон ;. п. 525–526.
  47. 46. Левицки MS. Обзор методов сортировки спайков: обнаружение и классификация нейронных потенциалов действия. Сеть: вычисления в нейронных системах. 1998; 9 (4): R53 – R78.pmid: 10221571
  48. 47. Вер М., Пезарисл Дж., Сахани М. Алгоритмы сортировки спайка ;.
  49. 48. Эйк К.Ф., Зейдат Н., Чжао З. Алгоритмы и преимущества контролируемой кластеризации. В: Инструменты с искусственным интеллектом, 2004. ICTAI 2004. 16-я Международная конференция IEEE по. IEEE ;. п. 774–776.
  50. 49. Jain AK, Dubes RC. Алгоритмы кластеризации данных. 1988 ;.
  51. 50. Чжао З. Эволюционные вычисления и алгоритмы расщепления для контролируемой кластеризации [Диссертация]; 2004 г.
  52. 51. Гибсон С., Джуди Дж. В., Маркович Д. Сравнение алгоритмов сортировки спайков для будущей аппаратной реализации. В: Инженерное общество в медицине и биологии, 2008. EMBS 2008. 30-я ежегодная международная конференция IEEE. IEEE ;. п. 5015–5020.
  53. 52. Стивенсон И.Х., Кординг KPJNn. Как достижения в области нейронной записи влияют на анализ данных. 2011; 14 (2): 139.
  54. 53. Хассан М.Ю., Вирабхадраппа Р., Чжан Дж., Бхатти А. Робастная оценка оптимальных параметров (OPE) для неконтролируемой кластеризации всплесков с использованием нейронных сетей.В: Международная конференция IEEE по системам, человеку и кибернетике (SMC), 2020 г. IEEE; 2020. стр. 1286–1291.
  55. 54. Veerabhadrappa R, Ul Hassan M, Zhang J, Bhatti A. Оценка совместимости алгоритмов кластеризации для современной внеклеточной сортировки нервных импульсов. Границы системной нейробиологии. 2020; 14:34. pmid: 32714155
  56. 55. Воутерс Дж., Клоостерман Ф., Бертран А. К онлайн-сортировке спайков для нейронных зондов высокой плотности с использованием различительного сопоставления шаблонов с подавлением мешающих спайков.Журнал нейронной инженерии. 2018; 15 (5): 056005. pmid: 29932426
  57. 56. Ракеш Вирабхадраппа ДЖАБ Масуд Уль Хасан. Оценка соответствия алгоритмов кластеризации для будущей современной внеклеточной сортировки нейронных спайков. Границы системной нейробиологии. 2020 ;.
  58. 57. Wild J, Prekopcsak Z, Sieger T, Novak D, Jech RJJonm. Сравнение производительности внеклеточных алгоритмов сортировки спайков для одноканальных записей. 2012. 203 (2): 369–376.
  59. 58.Chung JE, Magland JF, Barnett AH, Tolosa VM, Tooker AC, Lee KY и др. Полностью автоматизированный подход к сортировке шипов. Нейрон. 2017; 95 (6): 1381–1394. pmid: 28

    1
  60. 59. Чен X, Цай Д. Крупномасштабная спектральная кластеризация с представлением на основе ориентиров. В: Двадцать пятая конференция AAAI по искусственному интеллекту ;.
  61. 60. ЛеКун Ю. База данных рукописных цифр MNIST. http://yann.lecun.com/exdb/mnist/ ;.
  62. 61. Бач К., Личман М.Репозиторий машинного обучения UCI [http://archive.ics.uci.edu/ml]. Ирвин, Калифорния: Калифорнийский университет. Школа информатики и информатики. 2013; 28.
  63. 62. Дуарте MF, Ху YH. Классификация транспортных средств в распределенных сенсорных сетях. Журнал параллельных и распределенных вычислений. 2004. 64 (7): 826–838.
  64. 63. Наполеон D, Павалакоди SJIJoCA. Новый метод уменьшения размерности с использованием алгоритма кластеризации k-средних для набора данных большой размерности. 2011; 13 (7): 41–46.
  65. 64. Киллик Р., Фернхед П., Экли IAJJotASA. Оптимальное обнаружение точек изменения с линейными вычислительными затратами. 2012. 107 (500): 1590–1598.
  66. 65. Pachitariu M, Steinmetz N, Kadir S, Carandini M, Harris KD. Kilosort: сортировка спайков в реальном времени для внеклеточной электрофизиологии с сотнями каналов. BioRxiv. 2016; п. 061481.
  67. 66. Докманич И., Пархизкар Р., Раньери Дж., Веттерли MJISPM. Матрицы евклидовых расстояний: существенная теория, алгоритмы и приложения.2015; 32 (6): 12–30.
  68. 67. Дрезнер З., Турел О, Зером Д. Модифицированный тест Колмогорова – Смирнова на нормальность. Связь в статистике – моделирование и вычисления ® . 2010. 39 (4): 693–704.
  69. 68. Мбах А.К., Паотонг А. Тест Шапиро – Франсиа по сравнению с другим тестом на нормальность с использованием ожидаемого p-значения. Журнал статистических вычислений и моделирования. 2015; 85 (15): 3002–3016.
  70. 69. Язычи Б., Йолакан С. Сравнение различных тестов на нормальность.Журнал статистических вычислений и моделирования. 2007. 77 (2): 175–183.
  71. 70. Мишра П., Пандей С.М., Сингх У., Гупта А., Саху С., Кешри А. Описательная статистика и тесты нормальности для статистических данных. Анналы сердечной анестезии. 2019; 22 (1): 67. pmid: 30648682
  72. 71. Хуберт М., Ван дер Викен С. Обнаружение выбросов для искаженных данных. Журнал хемометрики: журнал хемометрического общества. 2008. 22 (3-4): 235–246.
  73. 72. Руссеу П.Дж., Хуберт М.Надежная статистика для обнаружения выбросов. Междисциплинарные обзоры Wiley: интеллектуальный анализ данных и открытие знаний. 2011; 1 (1): 73–79.
  74. 73. Аксенова Т.И., Чибирова О.К., Дрыга О.А., Тетько И.В., Бенабид А.Л., Вилла А.Е. Неконтролируемый автоматический метод сортировки нейронных спайков волн у бодрствующих и свободно движущихся животных. Методы. 2003. 30 (2): 178–187. pmid: 12725785
  75. 74. Ester M, Kriegel HP, Sander J, Xu X. Основанный на плотности алгоритм для обнаружения кластеров в больших пространственных базах данных с шумом.В: Kdd. т. 96 ;. п. 226–231.
  76. 75. Ллойд С. Квантование методом наименьших квадратов в PCM. Сделки IEEE по теории информации. 1982. 28 (2): 129–137.
  77. 76. Park HS, Jun CH. Простой и быстрый алгоритм кластеризации K-medoids. Экспертные системы с приложениями. 2009. 36 (2): 3336–3341.
  78. 77. Бездек Дж. К., Эрлих Р., Фул У. FCM: алгоритм нечеткой кластеризации c-средних. Компьютеры и науки о Земле. 1984; 10 (2-3): 191–203.
  79. 78.Кордуняну А., епископ СМ. Выбор вариационной байесовской модели для распределения смесей. В кн .: Искусственный интеллект и статистика. т. 2001. Морган Кауфманн Уолтем, Массачусетс. п. 27–34.
  80. 79. Закон MH, Фигейредо MA, Jain AK. Одновременный выбор признаков и кластеризация с использованием смешанных моделей. Транзакции IEEE по анализу образов и машинному интеллекту. 2004. 26 (9): 1154–1166. pmid: 15742891
  81. 80. Дэвидсон И., Рави С. Агломеративная иерархическая кластеризация с ограничениями: теоретические и эмпирические результаты.В: Европейская конференция по принципам интеллектуального анализа данных и открытия знаний. Springer ;. п. 59–70.
  82. 81. Чжан Т., Рамакришнан Р., Ливни М. БЕРЧ: эффективный метод кластеризации данных для очень больших баз данных. В: ACM Sigmod Record. т. 25. ACM ;. п. 103–114.
  83. 82. Анкерст М., Бреуниг М.М., Кригель Х.П., Сандер Дж. ОПТИКА: упорядочивающие точки для определения структуры кластеризации. В: Запись ACM Sigmod. т. 28. ACM ;. п. 49–60.
  84. 83. Quiroga RQ.Концептуальные ячейки: строительные блоки декларативных функций памяти. Обзоры природы Неврология. 2012; 13 (8): 587. pmid: 22760181
  85. 84. Рассказ М., Конгалтон Р.Г. Оценка точности: взгляд пользователя. Фотограмметрическая инженерия и дистанционное зондирование. 1986. 52 (3): 397–399.
  86. 85. Do TT, Gan L, Nguyen N, Tran TD. Алгоритм слежения с адаптивным согласованием разреженности для практического использования сжатого зондирования. В: 2008 42-я конференция Asilomar по сигналам, системам и компьютерам.IEEE; 2008. с. 581–587.
  87. 86. Бен-Дэвид А. Много случайности скрывается за точностью. Инженерные приложения искусственного интеллекта. 2007. 20 (7): 875–885.
  88. 87. Dunham MH. Интеллектуальный анализ данных: вводные и дополнительные темы. Pearson Education India; 2006.
  89. 88. Lansey JC. Красивая и различимая палитра цветов линий – Обмен файлами – MATLAB Central ;. Доступно по адресу: https://au.

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *