[{"data":1,"prerenderedAt":6772},["ShallowReactive",2],{"article-id-ru-ml-basic-2":3},{"id":4,"title":5,"body":6,"description":6370,"extension":6756,"meta":6757,"navigation":6766,"path":31,"seo":6767,"stem":6770,"__hash__":6771},"content/ru/blog/ml-basic-2.mdx","Ml Basic 2",{"type":7,"value":8,"toc":6746},"minimark",[9,6359],[10,11,12,16,33,36,41,111,114,117,147,252,345,395,464,533,536,589,624,628,631,659,753,789,792,831,891,957,978,1044,1050,1057,1084,1088,1091,1153,1221,1227,1230,1247,1334,1350,1474,1477,1589,1592,1722,1806,1809,1889,1905,1979,2041,2107,2123,2259,2262,2394,2397,2469,2539,2542,2697,2700,2774,2864,2896,2913,2983,3067,3070,3158,3274,3277,3391,3511,3518,3672,3758,3761,3788,3792,3795,3859,3862,3887,3912,3929,4078,4095,4209,4242,4258,4311,4314,4342,4345,4349,4352,4419,4422,4534,4620,4623,4626,4630,4633,4664,4670,4673,4676,4679,4682,4686,4689,4692,4807,4828,4964,4967,5149,5152,5380,5383,5567,5589,5691,5725,5775,5778,5781,6013,6016,6130,6133,6243],"section-md",{},[13,14,15],"p",{},"Это статья из цикла про основы машинного обучения.",[17,18,19,27],"ul",{},[20,21,22],"li",{},[23,24,26],"a",{"href":25},"/ru/blog/ml-basic-1","Часть 1. О машинном обучении простым языком",[20,28,29],{},[23,30,32],{"href":31},"/ru/blog/ml-basic-2","Часть 2. Линейная регрессия — проще некуда",[13,34,35],{},"В прошлой статье мы рассматривали машинное обучение в\nобщем виде, без деталей работы. В этой же статье начнем разбираться в\nконкретных алгоритмах. И начнем с самой простой на мой взгляд модели —\nлинейной регрессии.",[37,38,40],"h2",{"id":39},"разбираемся-с-терминами","Разбираемся с терминами",[13,42,43,44,67,68,72,73,86,87,110],{},"Для начала давайте определимся, что за задачу и как мы будем решать.\nИтак, решаем мы задачу регрессии. О том, что это за задача, мы говорили\nв прошлой статье, но на всякий случай напомню. У нас есть некие данные\n",[45,46,49],"span",{"className":47},[48],"katex",[50,51,53],"math",{"xmlns":52},"http://www.w3.org/1998/Math/MathML",[54,55,56,63],"semantics",{},[57,58,59],"mrow",{},[60,61,62],"mi",{},"X",[64,65,62],"annotation",{"encoding":66},"application/x-tex",". Это может быть одно число или несколько (такой набор чисел\nназывается ",[69,70,71],"strong",{},"вектором","). Мы хотим для ",[45,74,76],{"className":75},[48],[50,77,78],{"xmlns":52},[54,79,80,84],{},[57,81,82],{},[60,83,62],{},[64,85,62],{"encoding":66}," получить в качестве ответа\nодно значение, которое мы обозначаем ",[45,88,90],{"className":89},[48],[50,91,92],{"xmlns":52},[54,93,94,107],{},[57,95,96],{},[97,98,100,103],"mover",{"accent":99},"true",[60,101,102],{},"y",[104,105,106],"mo",{"stretchy":99},"^",[64,108,109],{"encoding":66},"\\widehat{y}",". Это значение\nнепрерывно и может быть в любом диапазоне.",[13,112,113],{},"В качестве примера такой задачи можно привести определение веса человека\nпо его росту. Тогда входными данными у нас будет одно число — рост\nчеловека в сантиметрах. На выходе мы тоже получим одно число — вес в\nкилограммах. Как же нам посчитать это значение?",[13,115,116],{},"Это нам подскажет второе слово в названии метода. Регрессия у нас\nлинейная. Что это значит? Это значит, что для определения выходного\nзначения мы будем использовать формулу прямой линии. Здесь стоит\nвспомнить школьную программу, в которой говорится, что прямая задается\nтаким выражением:",[45,118,120],{"className":119},[48],[50,121,123],{"xmlns":52,"display":122},"block",[54,124,125,144],{},[57,126,127,129,132,135,138,141],{},[60,128,102],{},[104,130,131],{},"=",[60,133,134],{},"k",[60,136,137],{},"x",[104,139,140],{},"+",[60,142,143],{},"b",[64,145,146],{"encoding":66},"y = kx + b",[13,148,149,150,163,164,177,178,191,192,205,206,223,224,237,238,251],{},"Эту формулу легко использовать и для нашего случая. Просто обозначим ",[45,151,153],{"className":152},[48],[50,154,155],{"xmlns":52},[54,156,157,161],{},[57,158,159],{},[60,160,102],{},[64,162,102],{"encoding":66},"\nвес человека, а ",[45,165,167],{"className":166},[48],[50,168,169],{"xmlns":52},[54,170,171,175],{},[57,172,173],{},[60,174,137],{},[64,176,137],{"encoding":66}," — рост. На самом деле нам еще нужно немного\nпоправить обозначения. Обычно ",[45,179,181],{"className":180},[48],[50,182,183],{"xmlns":52},[54,184,185,189],{},[57,186,187],{},[60,188,102],{},[64,190,102],{"encoding":66}," обозначают правильный ответ, то есть,\nв нашем случае, реальный вес человека. Мы же пытаемся сделать прогноз, и\nнаш результат, как говорилось выше, будем обозначать не ",[45,193,195],{"className":194},[48],[50,196,197],{"xmlns":52},[54,198,199,203],{},[57,200,201],{},[60,202,102],{},[64,204,102],{"encoding":66},", а\n",[45,207,209],{"className":208},[48],[50,210,211],{"xmlns":52},[54,212,213,221],{},[57,214,215],{},[97,216,217,219],{"accent":99},[60,218,102],{},[104,220,106],{"stretchy":99},[64,222,109],{"encoding":66},". Но вернемся от обозначений к сути. Нам останется\nподобрать коэффициенты ",[45,225,227],{"className":226},[48],[50,228,229],{"xmlns":52},[54,230,231,235],{},[57,232,233],{},[60,234,134],{},[64,236,134],{"encoding":66}," и ",[45,239,241],{"className":240},[48],[50,242,243],{"xmlns":52},[54,244,245,249],{},[57,246,247],{},[60,248,143],{},[64,250,143],{"encoding":66},", и мы сможем приблизительно решить\nзадачу.",[13,253,254,255,268,269,306,307,325,326,344],{},"Но решение будет не очень точным (а скорее всего — очень неточным).\nДело в том, что рост и вес не связаны линейной зависимостью напрямую.\nЕсть высокие и худые люди, а есть невысокие и полные. И такая простая\nформула работать будет плохо. Чтобы увеличить точность нужно усложнять\nмодель. Добавим обхват талии. Теперь наши входные данные уже не\nодно число ",[45,256,258],{"className":257},[48],[50,259,260],{"xmlns":52},[54,261,262,266],{},[57,263,264],{},[60,265,137],{},[64,267,137],{"encoding":66},", а вектор ",[45,270,272],{"className":271},[48],[50,273,274],{"xmlns":52},[54,275,276,303],{},[57,277,278,281,290,293,300],{},[104,279,280],{"fence":99},"[",[282,283,284,286],"msub",{},[60,285,137],{},[287,288,289],"mn",{},"1",[104,291,292],{"separator":99},",",[282,294,295,297],{},[60,296,137],{},[287,298,299],{},"2",[104,301,302],{"fence":99},"]",[64,304,305],{"encoding":66},"\\left\\lbrack x_{1},x_{2} \\right\\rbrack",":\n",[45,308,310],{"className":309},[48],[50,311,312],{"xmlns":52},[54,313,314,322],{},[57,315,316],{},[282,317,318,320],{},[60,319,137],{},[287,321,289],{},[64,323,324],{"encoding":66},"x_{1}"," обозначает рост, а ",[45,327,329],{"className":328},[48],[50,330,331],{"xmlns":52},[54,332,333,341],{},[57,334,335],{},[282,336,337,339],{},[60,338,137],{},[287,340,299],{},[64,342,343],{"encoding":66},"x_{2}"," — обхват талии. Выходные данные\nостались прежними — вес в килограммах. Формула при этом меняется, но не\nрадикально:",[45,346,348],{"className":347},[48],[50,349,350],{"xmlns":52,"display":122},[54,351,352,392],{},[57,353,354,360,362,368,374,376,382,388,390],{},[97,355,356,358],{"accent":99},[60,357,102],{},[104,359,106],{"stretchy":99},[104,361,131],{},[282,363,364,366],{},[60,365,134],{},[287,367,289],{},[282,369,370,372],{},[60,371,137],{},[287,373,289],{},[104,375,140],{},[282,377,378,380],{},[60,379,134],{},[287,381,299],{},[282,383,384,386],{},[60,385,137],{},[287,387,299],{},[104,389,140],{},[60,391,143],{},[64,393,394],{"encoding":66},"\\widehat{y} = k_{1}x_{1} + k_{2}x_{2} + b",[13,396,397,398,416,417,237,435,448,449,463],{},"Для успешного обучения нам теперь нужно найти уже не два, а три\nпараметра: ",[45,399,401],{"className":400},[48],[50,402,403],{"xmlns":52},[54,404,405,413],{},[57,406,407],{},[282,408,409,411],{},[60,410,134],{},[287,412,289],{},[64,414,415],{"encoding":66},"k_{1}",", ",[45,418,420],{"className":419},[48],[50,421,422],{"xmlns":52},[54,423,424,432],{},[57,425,426],{},[282,427,428,430],{},[60,429,134],{},[287,431,299],{},[64,433,434],{"encoding":66},"k_{2}",[45,436,438],{"className":437},[48],[50,439,440],{"xmlns":52},[54,441,442,446],{},[57,443,444],{},[60,445,143],{},[64,447,143],{"encoding":66},". Для дальнейшего повышения точности мы\nможем и дальше добавлять входные данные, например, длину ноги, обхват\nгруди и так далее. При этом каждое новое число во входных данных\nприносит с собой и новый параметр модели, который нам нужно будет найти.\nВ общем виде, если у нас много параметров (обозначим это «много» как\n",[45,450,452],{"className":451},[48],[50,453,454],{"xmlns":52},[54,455,456,461],{},[57,457,458],{},[60,459,460],{},"m",[64,462,460],{"encoding":66},"), формула будет иметь такой вид:",[45,465,467],{"className":466},[48],[50,468,469],{"xmlns":52,"display":122},[54,470,471,530],{},[57,472,473,479,481,487,493,495,501,507,509,512,514,520,526,528],{},[97,474,475,477],{"accent":99},[60,476,102],{},[104,478,106],{"stretchy":99},[104,480,131],{},[282,482,483,485],{},[60,484,134],{},[287,486,289],{},[282,488,489,491],{},[60,490,137],{},[287,492,289],{},[104,494,140],{},[282,496,497,499],{},[60,498,134],{},[287,500,299],{},[282,502,503,505],{},[60,504,137],{},[287,506,299],{},[104,508,140],{},[104,510,511],{},"…",[104,513,140],{},[282,515,516,518],{},[60,517,134],{},[60,519,460],{},[282,521,522,524],{},[60,523,137],{},[60,525,460],{},[104,527,140],{},[60,529,143],{},[64,531,532],{"encoding":66},"\\widehat{y} = k_{1}x_{1} + k_{2}x_{2} + \\ldots + k_{m}x_{m} + b",[13,534,535],{},"или",[45,537,539],{"className":538},[48],[50,540,541],{"xmlns":52,"display":122},[54,542,543,586],{},[57,544,545,551,553,570,576,582,584],{},[97,546,547,549],{"accent":99},[60,548,102],{},[104,550,106],{"stretchy":99},[104,552,131],{},[554,555,556,559,568],"munderover",{},[104,557,558],{},"∑",[57,560,561,564,566],{},[60,562,563],{},"i",[104,565,131],{},[287,567,289],{},[60,569,460],{},[282,571,572,574],{},[60,573,134],{},[60,575,563],{},[282,577,578,580],{},[60,579,137],{},[60,581,563],{},[104,583,140],{},[60,585,143],{},[64,587,588],{"encoding":66},"\\widehat{y} = \\sum_{i = 1}^{m} k_{i}x_{i} + b",[13,590,591,592,237,610,623],{},"Все, что нам осталось — это разобраться, как найти параметры ",[45,593,595],{"className":594},[48],[50,596,597],{"xmlns":52},[54,598,599,607],{},[57,600,601],{},[282,602,603,605],{},[60,604,134],{},[60,606,563],{},[64,608,609],{"encoding":66},"k_{i}",[45,611,613],{"className":612},[48],[50,614,615],{"xmlns":52},[54,616,617,621],{},[57,618,619],{},[60,620,143],{},[64,622,143],{"encoding":66},".",[37,625,627],{"id":626},"учимся-обучаться","Учимся обучаться",[13,629,630],{},"Для начала стоит вернуться к самому простому случаю, когда у нас один\nпараметр. В таком виде формула выглядит так:",[45,632,634],{"className":633},[48],[50,635,636],{"xmlns":52,"display":122},[54,637,638,656],{},[57,639,640,646,648,650,652,654],{},[97,641,642,644],{"accent":99},[60,643,102],{},[104,645,106],{"stretchy":99},[104,647,131],{},[60,649,134],{},[60,651,137],{},[104,653,140],{},[60,655,143],{},[64,657,658],{"encoding":66},"\\widehat{y} = kx + b",[13,660,661,662,237,675,688,689,706,707,720,721,734,735,752],{},"Как говорилось выше, обучение состоит в том, чтобы подобрать\nкоэффициенты ",[45,663,665],{"className":664},[48],[50,666,667],{"xmlns":52},[54,668,669,673],{},[57,670,671],{},[60,672,134],{},[64,674,134],{"encoding":66},[45,676,678],{"className":677},[48],[50,679,680],{"xmlns":52},[54,681,682,686],{},[57,683,684],{},[60,685,143],{},[64,687,143],{"encoding":66},". Какими должны быть эти коэффициенты? Мы хотим,\nчтобы наши ответы ",[45,690,692],{"className":691},[48],[50,693,694],{"xmlns":52},[54,695,696,704],{},[57,697,698],{},[97,699,700,702],{"accent":99},[60,701,102],{},[104,703,106],{"stretchy":99},[64,705,109],{"encoding":66}," были максимально близки к правильным\nответам ",[45,708,710],{"className":709},[48],[50,711,712],{"xmlns":52},[54,713,714,718],{},[57,715,716],{},[60,717,102],{},[64,719,102],{"encoding":66},". Что значит «максимально близки»? Разница между ",[45,722,724],{"className":723},[48],[50,725,726],{"xmlns":52},[54,727,728,732],{},[57,729,730],{},[60,731,102],{},[64,733,102],{"encoding":66}," и\n",[45,736,738],{"className":737},[48],[50,739,740],{"xmlns":52},[54,741,742,750],{},[57,743,744],{},[97,745,746,748],{"accent":99},[60,747,102],{},[104,749,106],{"stretchy":99},[64,751,109],{"encoding":66}," должна быть минимальной. Это можно записать как",[45,754,756],{"className":755},[48],[50,757,758],{"xmlns":52,"display":122},[54,759,760,786],{},[57,761,762,780,783],{},[57,763,764,767,769,772,778],{},[104,765,766],{"fence":99},"∣",[60,768,102],{},[104,770,771],{},"−",[97,773,774,776],{"accent":99},[60,775,102],{},[104,777,106],{"stretchy":99},[104,779,766],{"fence":99},[104,781,782],{},"→",[287,784,785],{},"0",[64,787,788],{"encoding":66},"\\left| y - \\widehat{y} \\right| \\rightarrow 0",[13,790,791],{},"С модулями работать неудобно, поэтому лучше вместо модуля использовать\nквадрат. Математически это эквивалентно (если модуль стремится к нулю,\nто и квадрат стремится к нулю тоже):",[45,793,795],{"className":794},[48],[50,796,797],{"xmlns":52,"display":122},[54,798,799,828],{},[57,800,801,824,826],{},[802,803,804,822],"msup",{},[57,805,806,809,811,813,819],{},[104,807,808],{"fence":99},"(",[60,810,102],{},[104,812,771],{},[97,814,815,817],{"accent":99},[60,816,102],{},[104,818,106],{"stretchy":99},[104,820,821],{"fence":99},")",[287,823,299],{},[104,825,782],{},[287,827,785],{},[64,829,830],{"encoding":66},"\\left( y - \\widehat{y} \\right)^{2} \\rightarrow 0",[13,832,833,834,237,847,860,861,885,886,890],{},"Если бы у нас был всего один пример, то задача бы решалась элементарно:\nвыбираем любую пару ",[45,835,837],{"className":836},[48],[50,838,839],{"xmlns":52},[54,840,841,845],{},[57,842,843],{},[60,844,134],{},[64,846,134],{"encoding":66},[45,848,850],{"className":849},[48],[50,851,852],{"xmlns":52},[54,853,854,858],{},[57,855,856],{},[60,857,143],{},[64,859,143],{"encoding":66}," так, чтобы ",[45,862,864],{"className":863},[48],[50,865,866],{"xmlns":52},[54,867,868,882],{},[57,869,870,872,874,876,878,880],{},[60,871,134],{},[60,873,137],{},[104,875,140],{},[60,877,143],{},[104,879,131],{},[60,881,102],{},[64,883,884],{"encoding":66},"kx + b = y",". Таких пар\nбесконечное множество, это следует из геометрических соображений, что\nчерез одну точку можно провести бесконечное число прямых. Но мы хотим,\nчтобы наша модель работала не для одной пары значений, а для всех\nвозможных. То есть нам нужно провести линию так, чтобы она ",[887,888,889],"em",{},"в среднем","\nбыла максимально близко ко всем точкам:",[45,892,894],{"className":893},[48],[50,895,896],{"xmlns":52,"display":122},[54,897,898,954],{},[57,899,900,950,952],{},[901,902,903,948],"mfrac",{},[57,904,905,920],{},[554,906,907,909,917],{},[104,908,558],{},[57,910,911,913,915],{},[60,912,563],{},[104,914,131],{},[287,916,289],{},[60,918,919],{},"n",[802,921,922,946],{},[57,923,924,926,932,934,944],{},[104,925,808],{"fence":99},[282,927,928,930],{},[60,929,102],{},[60,931,563],{},[104,933,771],{},[97,935,936,942],{"accent":99},[282,937,938,940],{},[60,939,102],{},[60,941,563],{},[104,943,106],{"stretchy":99},[104,945,821],{"fence":99},[287,947,299],{},[60,949,919],{},[104,951,782],{},[287,953,785],{},[64,955,956],{"encoding":66},"\\frac{ \\sum_{i = 1}^{n} \\left( y_{i} - \\widehat{y_{i}} \\right)^{2} }{n} \\rightarrow 0",[13,958,959,960,977],{},"Знаменатель можем не учитывать, так как он ни на что не влияет. Теперь\nвспомним, как считается ",[45,961,963],{"className":962},[48],[50,964,965],{"xmlns":52},[54,966,967,975],{},[57,968,969],{},[97,970,971,973],{"accent":99},[60,972,102],{},[104,974,106],{"stretchy":99},[64,976,109],{"encoding":66},":",[45,979,981],{"className":980},[48],[50,982,983],{"xmlns":52,"display":122},[54,984,985,1041],{},[57,986,987,1001,1037,1039],{},[554,988,989,991,999],{},[104,990,558],{},[57,992,993,995,997],{},[60,994,563],{},[104,996,131],{},[287,998,289],{},[60,1000,919],{},[802,1002,1003,1035],{},[57,1004,1005,1007,1013,1015,1033],{},[104,1006,808],{"fence":99},[282,1008,1009,1011],{},[60,1010,102],{},[60,1012,563],{},[104,1014,771],{},[57,1016,1017,1019,1021,1027,1029,1031],{},[104,1018,808],{"fence":99},[60,1020,134],{},[282,1022,1023,1025],{},[60,1024,137],{},[60,1026,563],{},[104,1028,140],{},[60,1030,143],{},[104,1032,821],{"fence":99},[104,1034,821],{"fence":99},[287,1036,299],{},[104,1038,782],{},[287,1040,785],{},[64,1042,1043],{"encoding":66},"\\sum_{i = 1}^{n}\\left( y_{i} - \\left( kx_{i} + b \\right) \\right)^{2} \\rightarrow 0",[13,1045,1046,1047,623],{},"Оптимизация такой функции называется ",[69,1048,1049],{},"методом наименьших квадратов",[13,1051,1052],{},[1053,1054],"img",{"alt":1055,"src":1056},"Иллюстрация метода наименьших квадратов","/img/blog/ml-basic-2/image1.png",[13,1058,1059,1060,1083],{},"На иллюстрации синими точками показаны реальные значения. Красными —\nпредсказания модели. Красная линия — график функции ",[45,1061,1063],{"className":1062},[48],[50,1064,1065],{"xmlns":52},[54,1066,1067,1081],{},[57,1068,1069,1071,1073,1075,1077,1079],{},[60,1070,102],{},[104,1072,131],{},[60,1074,134],{},[60,1076,137],{},[104,1078,140],{},[60,1080,143],{},[64,1082,146],{"encoding":66},". Мы\nстараемся минимизировать сумму расстояний между красными и синими\nточками (пунктирные линии).",[37,1085,1087],{"id":1086},"оптимизируем","Оптимизируем",[13,1089,1090],{},"Давайте посмотрим на нашу функцию:",[45,1092,1094],{"className":1093},[48],[50,1095,1096],{"xmlns":52,"display":122},[54,1097,1098,1150],{},[57,1099,1100,1114],{},[554,1101,1102,1104,1112],{},[104,1103,558],{},[57,1105,1106,1108,1110],{},[60,1107,563],{},[104,1109,131],{},[287,1111,289],{},[60,1113,919],{},[802,1115,1116,1148],{},[57,1117,1118,1120,1126,1128,1146],{},[104,1119,808],{"fence":99},[282,1121,1122,1124],{},[60,1123,102],{},[60,1125,563],{},[104,1127,771],{},[57,1129,1130,1132,1134,1140,1142,1144],{},[104,1131,808],{"fence":99},[60,1133,134],{},[282,1135,1136,1138],{},[60,1137,137],{},[60,1139,563],{},[104,1141,140],{},[60,1143,143],{},[104,1145,821],{"fence":99},[104,1147,821],{"fence":99},[287,1149,299],{},[64,1151,1152],{"encoding":66},"\\sum_{i = 1}^{n}\\left( y_{i} - \\left( kx_{i} + b \\right) \\right)^{2}",[13,1154,1155,1156,1174,1175,1193,1194,237,1207,1220],{},"От чего она зависит? Входные данные ",[45,1157,1159],{"className":1158},[48],[50,1160,1161],{"xmlns":52},[54,1162,1163,1171],{},[57,1164,1165],{},[282,1166,1167,1169],{},[60,1168,137],{},[60,1170,563],{},[64,1172,1173],{"encoding":66},"x_{i}"," и правильные ответы ",[45,1176,1178],{"className":1177},[48],[50,1179,1180],{"xmlns":52},[54,1181,1182,1190],{},[57,1183,1184],{},[282,1185,1186,1188],{},[60,1187,102],{},[60,1189,563],{},[64,1191,1192],{"encoding":66},"y_{i}","\nу нас неизменны. Значит, сумма будет зависеть только от параметров\n",[45,1195,1197],{"className":1196},[48],[50,1198,1199],{"xmlns":52},[54,1200,1201,1205],{},[57,1202,1203],{},[60,1204,134],{},[64,1206,134],{"encoding":66},[45,1208,1210],{"className":1209},[48],[50,1211,1212],{"xmlns":52},[54,1213,1214,1218],{},[57,1215,1216],{},[60,1217,143],{},[64,1219,143],{"encoding":66},". Получается, что у нас функция от двух переменных, и мы должны\nнайти ее минимум. Если нарисовать поверхность, которую описывает эта\nфункция, мы получим такую картинку:",[13,1222,1223],{},[1053,1224],{"alt":1225,"src":1226},"Поверхность, описываемая квадратичной функцией","/img/blog/ml-basic-2/image2.png",[13,1228,1229],{},"Если опять вспомнить школьную математику, то экстремум (минимум или\nмаксимум) функции находится там, где производная равна нулю (если такое\nместо у функции есть). Это как раз наш случай: по графику мы видим, что\nэкстремум у функции один, и как раз в нем и будет минимум.",[13,1231,1232,1233,1246],{},"Самое главное, что производные мы можем считать отдельно по каждой из переменных.\nСначала считаем производную по ",[45,1234,1236],{"className":1235},[48],[50,1237,1238],{"xmlns":52},[54,1239,1240,1244],{},[57,1241,1242],{},[60,1243,143],{},[64,1245,143],{"encoding":66},". Знак суммы — это\nпросто операция сложения. Вспоминаем цепное правило:",[45,1248,1250],{"className":1249},[48],[50,1251,1252],{"xmlns":52,"display":122},[54,1253,1254,1331],{},[57,1255,1256,1267,1270,1273,1276,1278,1280,1282,1284,1286,1296,1298,1300,1302,1304,1306,1308,1310,1313,1323,1325,1327,1329],{},[901,1257,1258,1261],{},[60,1259,1260],{},"d",[57,1262,1263,1265],{},[60,1264,1260],{},[60,1266,137],{},[60,1268,1269],{},"f",[104,1271,808],{"stretchy":1272},"false",[60,1274,1275],{},"g",[104,1277,808],{"stretchy":1272},[60,1279,137],{},[104,1281,821],{"stretchy":1272},[104,1283,821],{"stretchy":1272},[104,1285,131],{},[901,1287,1288,1290],{},[60,1289,1260],{},[57,1291,1292,1294],{},[60,1293,1260],{},[60,1295,1275],{},[60,1297,1269],{},[104,1299,808],{"stretchy":1272},[60,1301,1275],{},[104,1303,808],{"stretchy":1272},[60,1305,137],{},[104,1307,821],{"stretchy":1272},[104,1309,821],{"stretchy":1272},[104,1311,1312],{},"⋅",[901,1314,1315,1317],{},[60,1316,1260],{},[57,1318,1319,1321],{},[60,1320,1260],{},[60,1322,137],{},[60,1324,1275],{},[104,1326,808],{"stretchy":1272},[60,1328,137],{},[104,1330,821],{"stretchy":1272},[64,1332,1333],{"encoding":66},"\\frac{d}{dx} f(g(x)) = \\frac{d}{dg} f(g(x)) \\cdot \\frac{d}{dx} g(x)",[13,1335,1336,1337,977],{},"Считаем сначала по ",[45,1338,1340],{"className":1339},[48],[50,1341,1342],{"xmlns":52},[54,1343,1344,1348],{},[57,1345,1346],{},[60,1347,143],{},[64,1349,143],{"encoding":66},[45,1351,1353],{"className":1352},[48],[50,1354,1355],{"xmlns":52,"display":122},[54,1356,1357,1471],{},[57,1358,1359,1369,1383,1419,1421,1423,1425,1439],{},[901,1360,1361,1363],{},[60,1362,1260],{},[57,1364,1365,1367],{},[60,1366,1260],{},[60,1368,143],{},[554,1370,1371,1373,1381],{},[104,1372,558],{},[57,1374,1375,1377,1379],{},[60,1376,563],{},[104,1378,131],{},[287,1380,289],{},[60,1382,919],{},[802,1384,1385,1417],{},[57,1386,1387,1389,1395,1397,1415],{},[104,1388,808],{"fence":99},[282,1390,1391,1393],{},[60,1392,102],{},[60,1394,563],{},[104,1396,771],{},[57,1398,1399,1401,1403,1409,1411,1413],{},[104,1400,808],{"fence":99},[60,1402,134],{},[282,1404,1405,1407],{},[60,1406,137],{},[60,1408,563],{},[104,1410,140],{},[60,1412,143],{},[104,1414,821],{"fence":99},[104,1416,821],{"fence":99},[287,1418,299],{},[104,1420,131],{},[104,1422,771],{},[287,1424,299],{},[554,1426,1427,1429,1437],{},[104,1428,558],{},[57,1430,1431,1433,1435],{},[60,1432,563],{},[104,1434,131],{},[287,1436,289],{},[60,1438,919],{},[57,1440,1441,1443,1449,1451,1469],{},[104,1442,808],{"fence":99},[282,1444,1445,1447],{},[60,1446,102],{},[60,1448,563],{},[104,1450,771],{},[57,1452,1453,1455,1457,1463,1465,1467],{},[104,1454,808],{"fence":99},[60,1456,134],{},[282,1458,1459,1461],{},[60,1460,137],{},[60,1462,563],{},[104,1464,140],{},[60,1466,143],{},[104,1468,821],{"fence":99},[104,1470,821],{"fence":99},[64,1472,1473],{"encoding":66},"\\frac{d}{db}\\sum_{i = 1}^{n}\\left( y_{i} - \\left( kx_{i} + b \\right) \\right)^{2} = - 2\\sum_{i = 1}^{n}\\left( y_{i} - \\left( kx_{i} + b \\right) \\right)",[13,1475,1476],{},"Уберем минус перед суммой, просто поменяв местами выражения в скобках:",[45,1478,1480],{"className":1479},[48],[50,1481,1482],{"xmlns":52,"display":122},[54,1483,1484,1586],{},[57,1485,1486,1488,1490,1504,1536,1538,1540,1554],{},[104,1487,771],{},[287,1489,299],{},[554,1491,1492,1494,1502],{},[104,1493,558],{},[57,1495,1496,1498,1500],{},[60,1497,563],{},[104,1499,131],{},[287,1501,289],{},[60,1503,919],{},[57,1505,1506,1508,1514,1516,1534],{},[104,1507,808],{"fence":99},[282,1509,1510,1512],{},[60,1511,102],{},[60,1513,563],{},[104,1515,771],{},[57,1517,1518,1520,1522,1528,1530,1532],{},[104,1519,808],{"fence":99},[60,1521,134],{},[282,1523,1524,1526],{},[60,1525,137],{},[60,1527,563],{},[104,1529,140],{},[60,1531,143],{},[104,1533,821],{"fence":99},[104,1535,821],{"fence":99},[104,1537,131],{},[287,1539,299],{},[554,1541,1542,1544,1552],{},[104,1543,558],{},[57,1545,1546,1548,1550],{},[60,1547,563],{},[104,1549,131],{},[287,1551,289],{},[60,1553,919],{},[57,1555,1556,1558,1576,1578,1584],{},[104,1557,808],{"fence":99},[57,1559,1560,1562,1564,1570,1572,1574],{},[104,1561,808],{"fence":99},[60,1563,134],{},[282,1565,1566,1568],{},[60,1567,137],{},[60,1569,563],{},[104,1571,140],{},[60,1573,143],{},[104,1575,821],{"fence":99},[104,1577,771],{},[282,1579,1580,1582],{},[60,1581,102],{},[60,1583,563],{},[104,1585,821],{"fence":99},[64,1587,1588],{"encoding":66},"-2\\sum_{i = 1}^{n}\\left( y_{i} - \\left( kx_{i} + b \\right) \\right) = 2\\sum_{i = 1}^{n}\\left( \\left( kx_{i} + b \\right) - y_{i} \\right)",[13,1590,1591],{},"Так как у нас теперь нет квадрата, мы можем разложить выражение на несколько сумм:",[45,1593,1595],{"className":1594},[48],[50,1596,1597],{"xmlns":52,"display":122},[54,1598,1599,1719],{},[57,1600,1601,1603,1617,1649,1651,1653,1667,1669,1675,1677,1679,1693,1695,1697,1699,1713],{},[287,1602,299],{},[554,1604,1605,1607,1615],{},[104,1606,558],{},[57,1608,1609,1611,1613],{},[60,1610,563],{},[104,1612,131],{},[287,1614,289],{},[60,1616,919],{},[57,1618,1619,1621,1639,1641,1647],{},[104,1620,808],{"fence":99},[57,1622,1623,1625,1627,1633,1635,1637],{},[104,1624,808],{"fence":99},[60,1626,134],{},[282,1628,1629,1631],{},[60,1630,137],{},[60,1632,563],{},[104,1634,140],{},[60,1636,143],{},[104,1638,821],{"fence":99},[104,1640,771],{},[282,1642,1643,1645],{},[60,1644,102],{},[60,1646,563],{},[104,1648,821],{"fence":99},[104,1650,131],{},[287,1652,299],{},[554,1654,1655,1657,1665],{},[104,1656,558],{},[57,1658,1659,1661,1663],{},[60,1660,563],{},[104,1662,131],{},[287,1664,289],{},[60,1666,919],{},[60,1668,134],{},[282,1670,1671,1673],{},[60,1672,137],{},[60,1674,563],{},[104,1676,140],{},[287,1678,299],{},[554,1680,1681,1683,1691],{},[104,1682,558],{},[57,1684,1685,1687,1689],{},[60,1686,563],{},[104,1688,131],{},[287,1690,289],{},[60,1692,919],{},[60,1694,143],{},[104,1696,771],{},[287,1698,299],{},[554,1700,1701,1703,1711],{},[104,1702,558],{},[57,1704,1705,1707,1709],{},[60,1706,563],{},[104,1708,131],{},[287,1710,289],{},[60,1712,919],{},[282,1714,1715,1717],{},[60,1716,102],{},[60,1718,563],{},[64,1720,1721],{"encoding":66},"2\\sum_{i = 1}^{n}\\left( \\left( kx_{i} + b \\right) - y_{i} \\right) = 2\\sum_{i = 1}^{n}kx_{i} + 2\\sum_{i = 1}^{n} b-2 \\sum_{i = 1}^{n} y_{i}",[13,1723,1724,1725,1756,1757,1770,1771,1787,1788,623],{},"Обратите внимание, что ",[45,1726,1728],{"className":1727},[48],[50,1729,1730],{"xmlns":52},[54,1731,1732,1753],{},[57,1733,1734,1736,1751],{},[287,1735,299],{},[1737,1738,1739,1741,1749],"msubsup",{},[104,1740,558],{},[57,1742,1743,1745,1747],{},[60,1744,563],{},[104,1746,131],{},[287,1748,289],{},[60,1750,919],{},[60,1752,143],{},[64,1754,1755],{"encoding":66},"2\\sum_{i = 1}^{n}b"," — это просто сложение ",[45,1758,1760],{"className":1759},[48],[50,1761,1762],{"xmlns":52},[54,1763,1764,1768],{},[57,1765,1766],{},[60,1767,143],{},[64,1769,143],{"encoding":66}," с\nсамим собой ",[45,1772,1774],{"className":1773},[48],[50,1775,1776],{"xmlns":52},[54,1777,1778,1784],{},[57,1779,1780,1782],{},[287,1781,299],{},[60,1783,919],{},[64,1785,1786],{"encoding":66},"2n"," раз, то есть ",[45,1789,1791],{"className":1790},[48],[50,1792,1793],{"xmlns":52},[54,1794,1795,1803],{},[57,1796,1797,1799,1801],{},[287,1798,299],{},[60,1800,919],{},[60,1802,143],{},[64,1804,1805],{"encoding":66},"2nb",[13,1807,1808],{},"Теперь вспомним, что мы ищем ноль производной. Значит, приравняем наше\nвыражение к нулю:",[45,1810,1812],{"className":1811},[48],[50,1813,1814],{"xmlns":52,"display":122},[54,1815,1816,1886],{},[57,1817,1818,1820,1834,1848,1850,1852,1854,1856,1858,1860,1874],{},[287,1819,299],{},[554,1821,1822,1824,1832],{},[104,1823,558],{},[57,1825,1826,1828,1830],{},[60,1827,563],{},[104,1829,131],{},[287,1831,289],{},[60,1833,919],{},[57,1835,1836,1838,1840,1846],{},[104,1837,808],{"fence":99},[60,1839,134],{},[282,1841,1842,1844],{},[60,1843,137],{},[60,1845,563],{},[104,1847,821],{"fence":99},[104,1849,140],{},[287,1851,299],{},[60,1853,919],{},[60,1855,143],{},[104,1857,771],{},[287,1859,299],{},[554,1861,1862,1864,1872],{},[104,1863,558],{},[57,1865,1866,1868,1870],{},[60,1867,563],{},[104,1869,131],{},[287,1871,289],{},[60,1873,919],{},[57,1875,1876,1882,1884],{},[282,1877,1878,1880],{},[60,1879,102],{},[60,1881,563],{},[104,1883,131],{},[287,1885,785],{},[64,1887,1888],{"encoding":66},"2\\sum_{i = 1}^{n}\\left( kx_{i} \\right) + 2nb - 2\\sum_{i = 1}^{n}{y_{i} = 0}",[13,1890,1891,1892,977],{},"Сократим двойки и перенесем элементы, чтобы выразить ",[45,1893,1895],{"className":1894},[48],[50,1896,1897],{"xmlns":52},[54,1898,1899,1903],{},[57,1900,1901],{},[60,1902,143],{},[64,1904,143],{"encoding":66},[45,1906,1908],{"className":1907},[48],[50,1909,1910],{"xmlns":52,"display":122},[54,1911,1912,1976],{},[57,1913,1914,1928,1942,1944,1946,1948,1950,1964],{},[554,1915,1916,1918,1926],{},[104,1917,558],{},[57,1919,1920,1922,1924],{},[60,1921,563],{},[104,1923,131],{},[287,1925,289],{},[60,1927,919],{},[57,1929,1930,1932,1934,1940],{},[104,1931,808],{"fence":99},[60,1933,134],{},[282,1935,1936,1938],{},[60,1937,137],{},[60,1939,563],{},[104,1941,821],{"fence":99},[104,1943,140],{},[60,1945,919],{},[60,1947,143],{},[104,1949,771],{},[554,1951,1952,1954,1962],{},[104,1953,558],{},[57,1955,1956,1958,1960],{},[60,1957,563],{},[104,1959,131],{},[287,1961,289],{},[60,1963,919],{},[57,1965,1966,1972,1974],{},[282,1967,1968,1970],{},[60,1969,102],{},[60,1971,563],{},[104,1973,131],{},[287,1975,785],{},[64,1977,1978],{"encoding":66},"\\sum_{i = 1}^{n}\\left( kx_{i} \\right) + nb - \\sum_{i = 1}^{n}{y_{i} = 0}",[45,1980,1982],{"className":1981},[48],[50,1983,1984],{"xmlns":52,"display":122},[54,1985,1986,2038],{},[57,1987,1988,1990,1992,1994,2008,2014,2016,2030,2032],{},[60,1989,919],{},[60,1991,143],{},[104,1993,131],{},[554,1995,1996,1998,2006],{},[104,1997,558],{},[57,1999,2000,2002,2004],{},[60,2001,563],{},[104,2003,131],{},[287,2005,289],{},[60,2007,919],{},[282,2009,2010,2012],{},[60,2011,102],{},[60,2013,563],{},[104,2015,771],{},[554,2017,2018,2020,2028],{},[104,2019,558],{},[57,2021,2022,2024,2026],{},[60,2023,563],{},[104,2025,131],{},[287,2027,289],{},[60,2029,919],{},[60,2031,134],{},[282,2033,2034,2036],{},[60,2035,137],{},[60,2037,563],{},[64,2039,2040],{"encoding":66},"nb = \\sum_{i = 1}^{n} y_{i} - \\sum_{i = 1}^{n} kx_{i}",[45,2042,2044],{"className":2043},[48],[50,2045,2046],{"xmlns":52,"display":122},[54,2047,2048,2104],{},[57,2049,2050,2052,2054],{},[60,2051,143],{},[104,2053,131],{},[901,2055,2056,2102],{},[57,2057,2058,2072,2078,2080,2082,2096],{},[554,2059,2060,2062,2070],{},[104,2061,558],{},[57,2063,2064,2066,2068],{},[60,2065,563],{},[104,2067,131],{},[287,2069,289],{},[60,2071,919],{},[282,2073,2074,2076],{},[60,2075,102],{},[60,2077,563],{},[104,2079,771],{},[60,2081,134],{},[554,2083,2084,2086,2094],{},[104,2085,558],{},[57,2087,2088,2090,2092],{},[60,2089,563],{},[104,2091,131],{},[287,2093,289],{},[60,2095,919],{},[282,2097,2098,2100],{},[60,2099,137],{},[60,2101,563],{},[60,2103,919],{},[64,2105,2106],{"encoding":66},"b = \\frac{\\sum_{i = 1}^{n} y_{i} - k\\sum_{i = 1}^{n} x_{i} }{n}",[13,2108,2109,2110,977],{},"Теперь так же посчитаем производную по ",[45,2111,2113],{"className":2112},[48],[50,2114,2115],{"xmlns":52},[54,2116,2117,2121],{},[57,2118,2119],{},[60,2120,134],{},[64,2122,134],{"encoding":66},[45,2124,2126],{"className":2125},[48],[50,2127,2128],{"xmlns":52,"display":122},[54,2129,2130,2256],{},[57,2131,2132,2142,2156,2192,2194,2196,2198,2212],{},[901,2133,2134,2136],{},[60,2135,1260],{},[57,2137,2138,2140],{},[60,2139,1260],{},[60,2141,134],{},[554,2143,2144,2146,2154],{},[104,2145,558],{},[57,2147,2148,2150,2152],{},[60,2149,563],{},[104,2151,131],{},[287,2153,289],{},[60,2155,919],{},[802,2157,2158,2190],{},[57,2159,2160,2162,2168,2170,2188],{},[104,2161,808],{"fence":99},[282,2163,2164,2166],{},[60,2165,102],{},[60,2167,563],{},[104,2169,771],{},[57,2171,2172,2174,2176,2182,2184,2186],{},[104,2173,808],{"fence":99},[60,2175,134],{},[282,2177,2178,2180],{},[60,2179,137],{},[60,2181,563],{},[104,2183,140],{},[60,2185,143],{},[104,2187,821],{"fence":99},[104,2189,821],{"fence":99},[287,2191,299],{},[104,2193,131],{},[104,2195,771],{},[287,2197,299],{},[554,2199,2200,2202,2210],{},[104,2201,558],{},[57,2203,2204,2206,2208],{},[60,2205,563],{},[104,2207,131],{},[287,2209,289],{},[60,2211,919],{},[57,2213,2214,2216,2248,2254],{},[104,2215,808],{"fence":99},[57,2217,2218,2220,2226,2228,2246],{},[104,2219,808],{"fence":99},[282,2221,2222,2224],{},[60,2223,102],{},[60,2225,563],{},[104,2227,771],{},[57,2229,2230,2232,2234,2240,2242,2244],{},[104,2231,808],{"fence":99},[60,2233,134],{},[282,2235,2236,2238],{},[60,2237,137],{},[60,2239,563],{},[104,2241,140],{},[60,2243,143],{},[104,2245,821],{"fence":99},[104,2247,821],{"fence":99},[282,2249,2250,2252],{},[60,2251,137],{},[60,2253,563],{},[104,2255,821],{"fence":99},[64,2257,2258],{"encoding":66},"\\frac{d}{dk} \\sum_{i = 1}^{n} \\left( y_{i} - \\left( kx_{i} + b \\right) \\right)^{2} =  - 2\\sum_{i = 1}^{n}\\left( \\left( y_{i} - \\left( kx_{i} + b \\right) \\right)x_{i} \\right)",[13,2260,2261],{},"Переставляем элементы, чтобы убрать минус:",[45,2263,2265],{"className":2264},[48],[50,2266,2267],{"xmlns":52,"display":122},[54,2268,2269,2391],{},[57,2270,2271,2273,2275,2289,2335,2337,2339,2353],{},[104,2272,771],{},[287,2274,299],{},[554,2276,2277,2279,2287],{},[104,2278,558],{},[57,2280,2281,2283,2285],{},[60,2282,563],{},[104,2284,131],{},[287,2286,289],{},[60,2288,919],{},[57,2290,2291,2293,2325,2327,2333],{},[104,2292,808],{"fence":99},[57,2294,2295,2297,2303,2305,2323],{},[104,2296,808],{"fence":99},[282,2298,2299,2301],{},[60,2300,102],{},[60,2302,563],{},[104,2304,771],{},[57,2306,2307,2309,2311,2317,2319,2321],{},[104,2308,808],{"fence":99},[60,2310,134],{},[282,2312,2313,2315],{},[60,2314,137],{},[60,2316,563],{},[104,2318,140],{},[60,2320,143],{},[104,2322,821],{"fence":99},[104,2324,821],{"fence":99},[104,2326,1312],{},[282,2328,2329,2331],{},[60,2330,137],{},[60,2332,563],{},[104,2334,821],{"fence":99},[104,2336,131],{},[287,2338,299],{},[554,2340,2341,2343,2351],{},[104,2342,558],{},[57,2344,2345,2347,2349],{},[60,2346,563],{},[104,2348,131],{},[287,2350,289],{},[60,2352,919],{},[57,2354,2355,2357,2383,2389],{},[104,2356,808],{"fence":99},[57,2358,2359,2361,2363,2369,2371,2373,2375,2381],{},[104,2360,808],{"fence":99},[60,2362,134],{},[282,2364,2365,2367],{},[60,2366,137],{},[60,2368,563],{},[104,2370,140],{},[60,2372,143],{},[104,2374,771],{},[282,2376,2377,2379],{},[60,2378,102],{},[60,2380,563],{},[104,2382,821],{"fence":99},[282,2384,2385,2387],{},[60,2386,137],{},[60,2388,563],{},[104,2390,821],{"fence":99},[64,2392,2393],{"encoding":66},"-2\\sum_{i = 1}^{n}\\left( \\left( y_{i} - \\left( kx_{i} + b \\right) \\right) \\cdot x_{i} \\right) = 2\\sum_{i = 1}^{n}{\\left( \\left( kx_{i} + b - y_{i} \\right)x_{i} \\right)}",[13,2395,2396],{},"Приравниваем к нулю и сокращаем двойку:",[45,2398,2400],{"className":2399},[48],[50,2401,2402],{"xmlns":52,"display":122},[54,2403,2404,2466],{},[57,2405,2406,2408,2422,2462,2464],{},[287,2407,299],{},[554,2409,2410,2412,2420],{},[104,2411,558],{},[57,2413,2414,2416,2418],{},[60,2415,563],{},[104,2417,131],{},[287,2419,289],{},[60,2421,919],{},[57,2423,2424,2426,2452,2454,2460],{},[104,2425,808],{"fence":99},[57,2427,2428,2430,2432,2438,2440,2442,2444,2450],{},[104,2429,808],{"fence":99},[60,2431,134],{},[282,2433,2434,2436],{},[60,2435,137],{},[60,2437,563],{},[104,2439,140],{},[60,2441,143],{},[104,2443,771],{},[282,2445,2446,2448],{},[60,2447,102],{},[60,2449,563],{},[104,2451,821],{"fence":99},[104,2453,1312],{},[282,2455,2456,2458],{},[60,2457,137],{},[60,2459,563],{},[104,2461,821],{"fence":99},[104,2463,131],{},[287,2465,785],{},[64,2467,2468],{"encoding":66},"2\\sum_{i = 1}^{n} \\left( \\left( kx_{i} + b - y_{i} \\right) \\cdot x_{i} \\right) = 0",[45,2470,2472],{"className":2471},[48],[50,2473,2474],{"xmlns":52,"display":122},[54,2475,2476,2536],{},[57,2477,2478,2492,2532,2534],{},[554,2479,2480,2482,2490],{},[104,2481,558],{},[57,2483,2484,2486,2488],{},[60,2485,563],{},[104,2487,131],{},[287,2489,289],{},[60,2491,919],{},[57,2493,2494,2496,2522,2524,2530],{},[104,2495,808],{"fence":99},[57,2497,2498,2500,2502,2508,2510,2512,2514,2520],{},[104,2499,808],{"fence":99},[60,2501,134],{},[282,2503,2504,2506],{},[60,2505,137],{},[60,2507,563],{},[104,2509,140],{},[60,2511,143],{},[104,2513,771],{},[282,2515,2516,2518],{},[60,2517,102],{},[60,2519,563],{},[104,2521,821],{"fence":99},[104,2523,1312],{},[282,2525,2526,2528],{},[60,2527,137],{},[60,2529,563],{},[104,2531,821],{"fence":99},[104,2533,131],{},[287,2535,785],{},[64,2537,2538],{"encoding":66},"\\sum_{i = 1}^{n}\\left( \\left( kx_{i} + b - y_{i} \\right) \\cdot x_{i} \\right) = 0",[13,2540,2541],{},"В итоге мы получаем систему из двух уравнений:",[45,2543,2545],{"className":2544},[48],[50,2546,2547],{"xmlns":52,"display":122},[54,2548,2549,2694],{},[57,2550,2551,2554],{},[104,2552,2553],{"fence":99},"{",[2555,2556,2560,2632],"mtable",{"rowspacing":2557,"columnalign":2558,"columnspacing":2559},"0.36em","left left","1em",[2561,2562,2563],"mtr",{},[2564,2565,2566],"mtd",{},[2567,2568,2569],"mstyle",{"scriptlevel":785,"displaystyle":1272},[57,2570,2571,2585,2628,2630],{},[1737,2572,2573,2575,2583],{},[104,2574,558],{},[57,2576,2577,2579,2581],{},[60,2578,563],{},[104,2580,131],{},[287,2582,289],{},[60,2584,919],{},[57,2586,2587,2589,2618,2620,2626],{},[104,2588,808],{"fence":99},[57,2590,2591,2593,2595,2598,2604,2606,2608,2610,2616],{},[104,2592,808],{"fence":99},[60,2594,134],{},[104,2596,2597],{},"∗",[282,2599,2600,2602],{},[60,2601,137],{},[60,2603,563],{},[104,2605,140],{},[60,2607,143],{},[104,2609,771],{},[282,2611,2612,2614],{},[60,2613,102],{},[60,2615,563],{},[104,2617,821],{"fence":99},[104,2619,1312],{},[282,2621,2622,2624],{},[60,2623,137],{},[60,2625,563],{},[104,2627,821],{"fence":99},[104,2629,131],{},[287,2631,785],{},[2561,2633,2634],{},[2564,2635,2636],{},[2567,2637,2638],{"scriptlevel":785,"displaystyle":1272},[57,2639,2640,2642,2644],{},[60,2641,143],{},[104,2643,131],{},[901,2645,2646,2692],{},[57,2647,2648,2662,2668,2670,2672,2686],{},[1737,2649,2650,2652,2660],{},[104,2651,558],{},[57,2653,2654,2656,2658],{},[60,2655,563],{},[104,2657,131],{},[287,2659,289],{},[60,2661,919],{},[282,2663,2664,2666],{},[60,2665,102],{},[60,2667,563],{},[104,2669,771],{},[60,2671,134],{},[1737,2673,2674,2676,2684],{},[104,2675,558],{},[57,2677,2678,2680,2682],{},[60,2679,563],{},[104,2681,131],{},[287,2683,289],{},[60,2685,919],{},[282,2687,2688,2690],{},[60,2689,137],{},[60,2691,563],{},[60,2693,919],{},[64,2695,2696],{"encoding":66},"\\begin{cases}\n\\sum_{i = 1}^{n} \\left( \\left(k * x_{i} + b - y_{i}\\right) \\cdot x_{i} \\right) = 0 \\\\\nb = \\frac{ \\sum_{i = 1}^{n} y_{i} - k \\sum_{i = 1}^{n} x_{i} }{n}\n\\end{cases}",[13,2698,2699],{},"Эту систему можно немного упростить. Давайте посмотрим на второе\nуравнение. Представим его как:",[45,2701,2703],{"className":2702},[48],[50,2704,2705],{"xmlns":52,"display":122},[54,2706,2707,2771],{},[57,2708,2709,2711,2713,2739,2741,2743,2745],{},[60,2710,143],{},[104,2712,131],{},[901,2714,2715,2737],{},[57,2716,2717,2731],{},[554,2718,2719,2721,2729],{},[104,2720,558],{},[57,2722,2723,2725,2727],{},[60,2724,563],{},[104,2726,131],{},[287,2728,289],{},[60,2730,919],{},[282,2732,2733,2735],{},[60,2734,102],{},[60,2736,563],{},[60,2738,919],{},[104,2740,771],{},[60,2742,134],{},[104,2744,1312],{},[901,2746,2747,2769],{},[57,2748,2749,2763],{},[554,2750,2751,2753,2761],{},[104,2752,558],{},[57,2754,2755,2757,2759],{},[60,2756,563],{},[104,2758,131],{},[287,2760,289],{},[60,2762,919],{},[282,2764,2765,2767],{},[60,2766,137],{},[60,2768,563],{},[60,2770,919],{},[64,2772,2773],{"encoding":66},"b = \\frac{ \\sum_{i = 1}^{n} y_{i} }{n} - k \\sdot \\frac{ \\sum_{i = 1}^{n} x_{i} }{n}",[13,2775,2776,2777,2815,2816,2829,2830,2849,2850,2863],{},"Что такое ",[45,2778,2780],{"className":2779},[48],[50,2781,2782],{"xmlns":52},[54,2783,2784,2812],{},[57,2785,2786],{},[901,2787,2788,2810],{},[57,2789,2790,2804],{},[1737,2791,2792,2794,2802],{},[104,2793,558],{},[57,2795,2796,2798,2800],{},[60,2797,563],{},[104,2799,131],{},[287,2801,289],{},[60,2803,919],{},[282,2805,2806,2808],{},[60,2807,102],{},[60,2809,563],{},[60,2811,919],{},[64,2813,2814],{"encoding":66},"\\frac{ \\sum_{i = 1}^{n} y_{i} }{n}"," ? Это среднее значение ",[45,2817,2819],{"className":2818},[48],[50,2820,2821],{"xmlns":52},[54,2822,2823,2827],{},[57,2824,2825],{},[60,2826,102],{},[64,2828,102],{"encoding":66},"\n(потому что мы сумму всех элементов делим на количество). Обозначим его\nкак ",[45,2831,2833],{"className":2832},[48],[50,2834,2835],{"xmlns":52},[54,2836,2837,2846],{},[57,2838,2839],{},[97,2840,2841,2843],{"accent":99},[60,2842,102],{},[104,2844,2845],{"stretchy":99},"‾",[64,2847,2848],{"encoding":66},"\\overline{y}",". Аналогично поступим с ",[45,2851,2853],{"className":2852},[48],[50,2854,2855],{"xmlns":52},[54,2856,2857,2861],{},[57,2858,2859],{},[60,2860,137],{},[64,2862,137],{"encoding":66},", там такое же среднее. В\nитоге получим:",[45,2865,2867],{"className":2866},[48],[50,2868,2869],{"xmlns":52,"display":122},[54,2870,2871,2893],{},[57,2872,2873,2875,2877,2883,2885,2887],{},[60,2874,143],{},[104,2876,131],{},[97,2878,2879,2881],{"accent":99},[60,2880,102],{},[104,2882,2845],{"stretchy":99},[104,2884,771],{},[60,2886,134],{},[97,2888,2889,2891],{"accent":99},[60,2890,137],{},[104,2892,2845],{"stretchy":99},[64,2894,2895],{"encoding":66},"b = \\overline{y} - k  \\overline{x}",[13,2897,2898,2899,2912],{},"Согласитесь: без всех этих сумм гораздо проще. Теперь поступим как в\nшколе: подставим ",[45,2900,2902],{"className":2901},[48],[50,2903,2904],{"xmlns":52},[54,2905,2906,2910],{},[57,2907,2908],{},[60,2909,143],{},[64,2911,143],{"encoding":66}," в первое уравнение.",[45,2914,2916],{"className":2915},[48],[50,2917,2918],{"xmlns":52,"display":122},[54,2919,2920,2980],{},[57,2921,2922,2936,2976,2978],{},[554,2923,2924,2926,2934],{},[104,2925,558],{},[57,2927,2928,2930,2932],{},[60,2929,563],{},[104,2931,131],{},[287,2933,289],{},[60,2935,919],{},[57,2937,2938,2940,2966,2968,2974],{},[104,2939,808],{"fence":99},[57,2941,2942,2944,2946,2952,2954,2956,2958,2964],{},[104,2943,808],{"fence":99},[60,2945,134],{},[282,2947,2948,2950],{},[60,2949,137],{},[60,2951,563],{},[104,2953,140],{},[60,2955,143],{},[104,2957,771],{},[282,2959,2960,2962],{},[60,2961,102],{},[60,2963,563],{},[104,2965,821],{"fence":99},[104,2967,1312],{},[282,2969,2970,2972],{},[60,2971,137],{},[60,2973,563],{},[104,2975,821],{"fence":99},[104,2977,131],{},[287,2979,785],{},[64,2981,2982],{"encoding":66},"\\sum_{i = 1}^{n} \\left( \\left( kx_{i} + b - y_{i} \\right) \\cdot x_{i} \\right) = 0",[45,2984,2986],{"className":2985},[48],[50,2987,2988],{"xmlns":52,"display":122},[54,2989,2990,3064],{},[57,2991,2992,3006,3060,3062],{},[554,2993,2994,2996,3004],{},[104,2995,558],{},[57,2997,2998,3000,3002],{},[60,2999,563],{},[104,3001,131],{},[287,3003,289],{},[60,3005,919],{},[57,3007,3008,3010,3050,3052,3058],{},[104,3009,808],{"fence":99},[57,3011,3012,3014,3016,3022,3024,3030,3032,3034,3040,3042,3048],{},[104,3013,808],{"fence":99},[60,3015,134],{},[282,3017,3018,3020],{},[60,3019,137],{},[60,3021,563],{},[104,3023,140],{},[97,3025,3026,3028],{"accent":99},[60,3027,102],{},[104,3029,2845],{"stretchy":99},[104,3031,771],{},[60,3033,134],{},[97,3035,3036,3038],{"accent":99},[60,3037,137],{},[104,3039,2845],{"stretchy":99},[104,3041,771],{},[282,3043,3044,3046],{},[60,3045,102],{},[60,3047,563],{},[104,3049,821],{"fence":99},[104,3051,1312],{},[282,3053,3054,3056],{},[60,3055,137],{},[60,3057,563],{},[104,3059,821],{"fence":99},[104,3061,131],{},[287,3063,785],{},[64,3065,3066],{"encoding":66},"\\sum_{i = 1}^{n} \\left( \\left( kx_{i} + \\overline{y} - k\\overline{x} - y_{i} \\right) \\cdot x_{i} \\right) = 0",[13,3068,3069],{},"Сократим все, что можно, и раскроем скобки:",[45,3071,3073],{"className":3072},[48],[50,3074,3075],{"xmlns":52,"display":122},[54,3076,3077,3155],{},[57,3078,3079,3093,3151,3153],{},[554,3080,3081,3083,3091],{},[104,3082,558],{},[57,3084,3085,3087,3089],{},[60,3086,563],{},[104,3088,131],{},[287,3090,289],{},[60,3092,919],{},[57,3094,3095,3097,3141,3143,3149],{},[104,3096,808],{"fence":99},[57,3098,3099,3101,3103,3113,3115,3121,3123,3125,3131,3133,3139],{},[104,3100,808],{"fence":99},[60,3102,134],{},[282,3104,3105,3111],{},[57,3106,3107,3109],{},[104,3108,808],{"stretchy":1272},[60,3110,137],{},[60,3112,563],{},[104,3114,771],{},[97,3116,3117,3119],{"accent":99},[60,3118,137],{},[104,3120,2845],{"stretchy":99},[104,3122,821],{"stretchy":1272},[104,3124,140],{},[97,3126,3127,3129],{"accent":99},[60,3128,102],{},[104,3130,2845],{"stretchy":99},[104,3132,771],{},[282,3134,3135,3137],{},[60,3136,102],{},[60,3138,563],{},[104,3140,821],{"fence":99},[104,3142,1312],{},[282,3144,3145,3147],{},[60,3146,137],{},[60,3148,563],{},[104,3150,821],{"fence":99},[104,3152,131],{},[287,3154,785],{},[64,3156,3157],{"encoding":66},"\\sum_{i = 1}^{n} \\left( \\left( k{(x}_{i} - \\overline{x}) + \\overline{y} - y_{i} \\right) \\cdot x_{i} \\right) = 0",[45,3159,3161],{"className":3160},[48],[50,3162,3163],{"xmlns":52,"display":122},[54,3164,3165,3271],{},[57,3166,3167,3169,3183,3217,3219,3233,3267,3269],{},[60,3168,134],{},[554,3170,3171,3173,3181],{},[104,3172,558],{},[57,3174,3175,3177,3179],{},[60,3176,563],{},[104,3178,131],{},[287,3180,289],{},[60,3182,919],{},[57,3184,3185,3187,3207,3209,3215],{},[104,3186,808],{"fence":99},[57,3188,3189,3191,3197,3199,3205],{},[104,3190,808],{"fence":99},[282,3192,3193,3195],{},[60,3194,137],{},[60,3196,563],{},[104,3198,771],{},[97,3200,3201,3203],{"accent":99},[60,3202,137],{},[104,3204,2845],{"stretchy":99},[104,3206,821],{"fence":99},[104,3208,1312],{},[282,3210,3211,3213],{},[60,3212,137],{},[60,3214,563],{},[104,3216,821],{"fence":99},[104,3218,140],{},[554,3220,3221,3223,3231],{},[104,3222,558],{},[57,3224,3225,3227,3229],{},[60,3226,563],{},[104,3228,131],{},[287,3230,289],{},[60,3232,919],{},[57,3234,3235,3237,3257,3259,3265],{},[104,3236,808],{"fence":99},[57,3238,3239,3241,3247,3249,3255],{},[104,3240,808],{"fence":99},[97,3242,3243,3245],{"accent":99},[60,3244,102],{},[104,3246,2845],{"stretchy":99},[104,3248,771],{},[282,3250,3251,3253],{},[60,3252,102],{},[60,3254,563],{},[104,3256,821],{"fence":99},[104,3258,1312],{},[282,3260,3261,3263],{},[60,3262,137],{},[60,3264,563],{},[104,3266,821],{"fence":99},[104,3268,131],{},[287,3270,785],{},[64,3272,3273],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( \\left( x_{i} - \\overline{x} \\right) \\cdot x_{i} \\right) +\n\\sum_{i = 1}^{n} \\left( \\left( \\overline{y} - y_{i} \\right) \\cdot x_{i} \\right) = 0",[13,3275,3276],{},"В принципе, этого уже хватает, чтобы все посчитать. Можно просто\nперекинуть второе слагаемое на другую сторону и поделить:",[45,3278,3280],{"className":3279},[48],[50,3281,3282],{"xmlns":52,"display":122},[54,3283,3284,3388],{},[57,3285,3286,3288,3302,3336,3338,3340,3354],{},[60,3287,134],{},[554,3289,3290,3292,3300],{},[104,3291,558],{},[57,3293,3294,3296,3298],{},[60,3295,563],{},[104,3297,131],{},[287,3299,289],{},[60,3301,919],{},[57,3303,3304,3306,3326,3328,3334],{},[104,3305,808],{"fence":99},[57,3307,3308,3310,3316,3318,3324],{},[104,3309,808],{"fence":99},[282,3311,3312,3314],{},[60,3313,137],{},[60,3315,563],{},[104,3317,771],{},[97,3319,3320,3322],{"accent":99},[60,3321,137],{},[104,3323,2845],{"stretchy":99},[104,3325,821],{"fence":99},[104,3327,1312],{},[282,3329,3330,3332],{},[60,3331,137],{},[60,3333,563],{},[104,3335,821],{"fence":99},[104,3337,131],{},[104,3339,771],{},[554,3341,3342,3344,3352],{},[104,3343,558],{},[57,3345,3346,3348,3350],{},[60,3347,563],{},[104,3349,131],{},[287,3351,289],{},[60,3353,919],{},[57,3355,3356,3358,3378,3380,3386],{},[104,3357,808],{"fence":99},[57,3359,3360,3362,3368,3370,3376],{},[104,3361,808],{"fence":99},[97,3363,3364,3366],{"accent":99},[60,3365,102],{},[104,3367,2845],{"stretchy":99},[104,3369,771],{},[282,3371,3372,3374],{},[60,3373,102],{},[60,3375,563],{},[104,3377,821],{"fence":99},[104,3379,1312],{},[282,3381,3382,3384],{},[60,3383,137],{},[60,3385,563],{},[104,3387,821],{"fence":99},[64,3389,3390],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( \\left( x_{i} - \\overline{x} \\right) \\cdot x_{i} \\right) =\n- \\sum_{i = 1}^{n} \\left( \\left( \\overline{y} - y_{i} \\right) \\cdot x_{i} \\right)",[45,3392,3394],{"className":3393},[48],[50,3395,3396],{"xmlns":52,"display":122},[54,3397,3398,3508],{},[57,3399,3400,3402,3404,3406],{},[60,3401,134],{},[104,3403,131],{},[104,3405,771],{},[901,3407,3408,3458],{},[57,3409,3410,3424],{},[554,3411,3412,3414,3422],{},[104,3413,558],{},[57,3415,3416,3418,3420],{},[60,3417,563],{},[104,3419,131],{},[287,3421,289],{},[60,3423,919],{},[57,3425,3426,3428,3448,3450,3456],{},[104,3427,808],{"fence":99},[57,3429,3430,3432,3438,3440,3446],{},[104,3431,808],{"fence":99},[97,3433,3434,3436],{"accent":99},[60,3435,102],{},[104,3437,2845],{"stretchy":99},[104,3439,771],{},[282,3441,3442,3444],{},[60,3443,102],{},[60,3445,563],{},[104,3447,821],{"fence":99},[104,3449,1312],{},[282,3451,3452,3454],{},[60,3453,137],{},[60,3455,563],{},[104,3457,821],{"fence":99},[57,3459,3460,3474],{},[554,3461,3462,3464,3472],{},[104,3463,558],{},[57,3465,3466,3468,3470],{},[60,3467,563],{},[104,3469,131],{},[287,3471,289],{},[60,3473,919],{},[57,3475,3476,3478,3498,3500,3506],{},[104,3477,808],{"fence":99},[57,3479,3480,3482,3488,3490,3496],{},[104,3481,808],{"fence":99},[282,3483,3484,3486],{},[60,3485,137],{},[60,3487,563],{},[104,3489,771],{},[97,3491,3492,3494],{"accent":99},[60,3493,137],{},[104,3495,2845],{"stretchy":99},[104,3497,821],{"fence":99},[104,3499,1312],{},[282,3501,3502,3504],{},[60,3503,137],{},[60,3505,563],{},[104,3507,821],{"fence":99},[64,3509,3510],{"encoding":66},"k = - \\frac{\n  \\sum_{i = 1}^{n} \\left( \\left( \\overline{y} - y_{i} \\right) \\sdot x_{i} \\right)\n}{\n  \\sum_{i = 1}^{n} \\left( \\left( x_{i} - \\overline{x} \\right) \\cdot x_{i} \\right)\n}",[13,3512,3513,3514,3517],{},"Формулу расчета можно еще упростить. ",[69,3515,3516],{},"Как именно, я покажу в конце статьи, чтобы не оставлять здесь еще больше формул",".\nВ итоге мы получаем:",[45,3519,3521],{"className":3520},[48],[50,3522,3523],{"xmlns":52,"display":122},[54,3524,3525,3669],{},[57,3526,3527,3529],{},[104,3528,2553],{"fence":99},[2555,3530,3531,3641],{"rowspacing":2557,"columnalign":2558,"columnspacing":2559},[2561,3532,3533],{},[2564,3534,3535],{},[2567,3536,3537],{"scriptlevel":785,"displaystyle":1272},[57,3538,3539,3541,3543],{},[60,3540,134],{},[104,3542,131],{},[901,3544,3545,3601],{},[57,3546,3547,3561,3581],{},[1737,3548,3549,3551,3559],{},[104,3550,558],{},[57,3552,3553,3555,3557],{},[60,3554,563],{},[104,3556,131],{},[287,3558,289],{},[60,3560,919],{},[57,3562,3563,3565,3571,3573,3579],{},[104,3564,808],{"fence":99},[282,3566,3567,3569],{},[60,3568,137],{},[60,3570,563],{},[104,3572,771],{},[97,3574,3575,3577],{"accent":99},[60,3576,137],{},[104,3578,2845],{"stretchy":99},[104,3580,821],{"fence":99},[57,3582,3583,3585,3591,3593,3599],{},[104,3584,808],{"fence":99},[282,3586,3587,3589],{},[60,3588,102],{},[60,3590,563],{},[104,3592,771],{},[97,3594,3595,3597],{"accent":99},[60,3596,102],{},[104,3598,2845],{"stretchy":99},[104,3600,821],{"fence":99},[57,3602,3603,3617],{},[1737,3604,3605,3607,3615],{},[104,3606,558],{},[57,3608,3609,3611,3613],{},[60,3610,563],{},[104,3612,131],{},[287,3614,289],{},[60,3616,919],{},[802,3618,3619,3639],{},[57,3620,3621,3623,3629,3631,3637],{},[104,3622,808],{"fence":99},[282,3624,3625,3627],{},[60,3626,137],{},[60,3628,563],{},[104,3630,771],{},[97,3632,3633,3635],{"accent":99},[60,3634,137],{},[104,3636,2845],{"stretchy":99},[104,3638,821],{"fence":99},[287,3640,299],{},[2561,3642,3643],{},[2564,3644,3645],{},[2567,3646,3647],{"scriptlevel":785,"displaystyle":1272},[57,3648,3649,3651,3653,3659,3661,3663],{},[60,3650,143],{},[104,3652,131],{},[97,3654,3655,3657],{"accent":99},[60,3656,102],{},[104,3658,2845],{"stretchy":99},[104,3660,771],{},[60,3662,134],{},[97,3664,3665,3667],{"accent":99},[60,3666,137],{},[104,3668,2845],{"stretchy":99},[64,3670,3671],{"encoding":66},"\\begin{cases}\nk = \\frac{\n  \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right) \\left(y_{i} - \\overline{y} \\right)\n}{\n  \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right)^{2}\n} \\\\\nb = \\overline{y} - k\\overline{x}\n\\end{cases}",[13,3673,3674,3675,237,3688,3701,3702,3715,3716,3729,3730,3743,3744,3757],{},"Таким образом, для любого набора ",[45,3676,3678],{"className":3677},[48],[50,3679,3680],{"xmlns":52},[54,3681,3682,3686],{},[57,3683,3684],{},[60,3685,137],{},[64,3687,137],{"encoding":66},[45,3689,3691],{"className":3690},[48],[50,3692,3693],{"xmlns":52},[54,3694,3695,3699],{},[57,3696,3697],{},[60,3698,102],{},[64,3700,102],{"encoding":66}," мы можем посчитать\nкоэффициенты. Ведь ",[45,3703,3705],{"className":3704},[48],[50,3706,3707],{"xmlns":52},[54,3708,3709,3713],{},[57,3710,3711],{},[60,3712,134],{},[64,3714,134],{"encoding":66}," не зависит от ",[45,3717,3719],{"className":3718},[48],[50,3720,3721],{"xmlns":52},[54,3722,3723,3727],{},[57,3724,3725],{},[60,3726,143],{},[64,3728,143],{"encoding":66},". Считаем его по формуле, а\nпотом, уже зная ",[45,3731,3733],{"className":3732},[48],[50,3734,3735],{"xmlns":52},[54,3736,3737,3741],{},[57,3738,3739],{},[60,3740,134],{},[64,3742,134],{"encoding":66},", находим ",[45,3745,3747],{"className":3746},[48],[50,3748,3749],{"xmlns":52},[54,3750,3751,3755],{},[57,3752,3753],{},[60,3754,143],{},[64,3756,143],{"encoding":66},". И в итоге у нас есть первый рабочий\nалгоритм машинного обучения.",[13,3759,3760],{},"Теперь, когда у нас есть все коэффициенты, мы легко можем посчитать\nответ для любых входных параметров по все той же формуле:",[45,3762,3764],{"className":3763},[48],[50,3765,3766],{"xmlns":52,"display":122},[54,3767,3768,3786],{},[57,3769,3770,3776,3778,3780,3782,3784],{},[97,3771,3772,3774],{"accent":99},[60,3773,102],{},[104,3775,106],{"stretchy":99},[104,3777,131],{},[60,3779,134],{},[60,3781,137],{},[104,3783,140],{},[60,3785,143],{},[64,3787,658],{"encoding":66},[37,3789,3791],{"id":3790},"пример-использования","Пример использования",[13,3793,3794],{},"Вернемся к задаче определения веса человека по его росту. Допустим, у\nнас есть набор данных:",[3796,3797,3798,3815],"table",{},[3799,3800,3801],"thead",{},[3802,3803,3804,3810],"tr",{},[3805,3806,3807],"th",{},[69,3808,3809],{},"Рост (x), см",[3805,3811,3812],{},[69,3813,3814],{},"Вес (y), кг",[3816,3817,3818,3827,3835,3843,3851],"tbody",{},[3802,3819,3820,3824],{},[3821,3822,3823],"td",{},"154",[3821,3825,3826],{},"43",[3802,3828,3829,3832],{},[3821,3830,3831],{},"196",[3821,3833,3834],{},"107",[3802,3836,3837,3840],{},[3821,3838,3839],{},"172",[3821,3841,3842],{},"73",[3802,3844,3845,3848],{},[3821,3846,3847],{},"185",[3821,3849,3850],{},"80",[3802,3852,3853,3856],{},[3821,3854,3855],{},"161",[3821,3857,3858],{},"66",[13,3860,3861],{},"В первую очередь, найдем средние значения:",[13,3863,3864],{},[45,3865,3867],{"className":3866},[48],[50,3868,3869],{"xmlns":52},[54,3870,3871,3884],{},[57,3872,3873,3879,3881],{},[97,3874,3875,3877],{"accent":99},[60,3876,137],{},[104,3878,2845],{"stretchy":99},[104,3880,131],{},[287,3882,3883],{},"173.6",[64,3885,3886],{"encoding":66},"\\overline{x} = 173.6",[13,3888,3889],{},[45,3890,3892],{"className":3891},[48],[50,3893,3894],{"xmlns":52},[54,3895,3896,3909],{},[57,3897,3898,3904,3906],{},[97,3899,3900,3902],{"accent":99},[60,3901,102],{},[104,3903,2845],{"stretchy":99},[104,3905,131],{},[287,3907,3908],{},"73.8",[64,3910,3911],{"encoding":66},"\\overline{y} = 73.8",[13,3913,3914,3915,3928],{},"Теперь нам\nнадо найти коэффициенты. Начинаем с ",[45,3916,3918],{"className":3917},[48],[50,3919,3920],{"xmlns":52},[54,3921,3922,3926],{},[57,3923,3924],{},[60,3925,134],{},[64,3927,134],{"encoding":66},". Для каждого элемента считаем:",[3796,3930,3931,4016],{},[3799,3932,3933],{},[3802,3934,3935,3952,3968,3992],{},[3805,3936,3937],{},[45,3938,3940],{"className":3939},[48],[50,3941,3942],{"xmlns":52},[54,3943,3944,3949],{},[57,3945,3946],{},[60,3947,137],{"mathvariant":3948},"bold",[64,3950,3951],{"encoding":66},"\\mathbf{x}",[3805,3953,3954],{},[45,3955,3957],{"className":3956},[48],[50,3958,3959],{"xmlns":52},[54,3960,3961,3965],{},[57,3962,3963],{},[60,3964,102],{"mathvariant":3948},[64,3966,3967],{"encoding":66},"\\mathbf{y}",[3805,3969,3970],{},[45,3971,3973],{"className":3972},[48],[50,3974,3975],{"xmlns":52},[54,3976,3977,3989],{},[57,3978,3979,3981,3983],{},[60,3980,137],{"mathvariant":3948},[104,3982,771],{},[97,3984,3985,3987],{"accent":99},[60,3986,137],{"mathvariant":3948},[104,3988,2845],{"stretchy":99},[64,3990,3991],{"encoding":66},"\\mathbf{x - \\overline{x}}",[3805,3993,3994],{},[45,3995,3997],{"className":3996},[48],[50,3998,3999],{"xmlns":52},[54,4000,4001,4013],{},[57,4002,4003,4005,4007],{},[60,4004,102],{"mathvariant":3948},[104,4006,771],{},[97,4008,4009,4011],{"accent":99},[60,4010,102],{"mathvariant":3948},[104,4012,2845],{"stretchy":99},[64,4014,4015],{"encoding":66},"\\mathbf{y - \\overline{y}}",[3816,4017,4018,4030,4042,4054,4066],{},[3802,4019,4020,4022,4024,4027],{},[3821,4021,3823],{},[3821,4023,3826],{},[3821,4025,4026],{},"-19.6",[3821,4028,4029],{},"-30.8",[3802,4031,4032,4034,4036,4039],{},[3821,4033,3831],{},[3821,4035,3834],{},[3821,4037,4038],{},"22.4",[3821,4040,4041],{},"33.2",[3802,4043,4044,4046,4048,4051],{},[3821,4045,3839],{},[3821,4047,3842],{},[3821,4049,4050],{},"-1.6",[3821,4052,4053],{},"-0.8",[3802,4055,4056,4058,4060,4063],{},[3821,4057,3847],{},[3821,4059,3850],{},[3821,4061,4062],{},"11.4",[3821,4064,4065],{},"6.2",[3802,4067,4068,4070,4072,4075],{},[3821,4069,3855],{},[3821,4071,3858],{},[3821,4073,4074],{},"-12.6",[3821,4076,4077],{},"-7.8",[13,4079,4080,4081,4094],{},"Теперь у нас есть все, чтобы посчитать ",[45,4082,4084],{"className":4083},[48],[50,4085,4086],{"xmlns":52},[54,4087,4088,4092],{},[57,4089,4090],{},[60,4091,134],{},[64,4093,134],{"encoding":66}," по формуле:",[45,4096,4098],{"className":4097},[48],[50,4099,4100],{"xmlns":52,"display":122},[54,4101,4102,4206],{},[57,4103,4104,4106,4108],{},[60,4105,134],{},[104,4107,131],{},[901,4109,4110,4166],{},[57,4111,4112,4126,4146],{},[554,4113,4114,4116,4124],{},[104,4115,558],{},[57,4117,4118,4120,4122],{},[60,4119,563],{},[104,4121,131],{},[287,4123,289],{},[60,4125,919],{},[57,4127,4128,4130,4136,4138,4144],{},[104,4129,808],{"fence":99},[282,4131,4132,4134],{},[60,4133,137],{},[60,4135,563],{},[104,4137,771],{},[97,4139,4140,4142],{"accent":99},[60,4141,137],{},[104,4143,2845],{"stretchy":99},[104,4145,821],{"fence":99},[57,4147,4148,4150,4156,4158,4164],{},[104,4149,808],{"fence":99},[282,4151,4152,4154],{},[60,4153,102],{},[60,4155,563],{},[104,4157,771],{},[97,4159,4160,4162],{"accent":99},[60,4161,102],{},[104,4163,2845],{"stretchy":99},[104,4165,821],{"fence":99},[57,4167,4168,4182],{},[554,4169,4170,4172,4180],{},[104,4171,558],{},[57,4173,4174,4176,4178],{},[60,4175,563],{},[104,4177,131],{},[287,4179,289],{},[60,4181,919],{},[802,4183,4184,4204],{},[57,4185,4186,4188,4194,4196,4202],{},[104,4187,808],{"fence":99},[282,4189,4190,4192],{},[60,4191,137],{},[60,4193,563],{},[104,4195,771],{},[97,4197,4198,4200],{"accent":99},[60,4199,137],{},[104,4201,2845],{"stretchy":99},[104,4203,821],{"fence":99},[287,4205,299],{},[64,4207,4208],{"encoding":66},"k = \\frac{\n  \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right) \\left( y_{i} - \\overline{y} \\right)\n}{\n  \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right)^{2}\n}",[13,4210,4211,4212],{},"В итоге получим ",[45,4213,4215],{"className":4214},[48],[50,4216,4217],{"xmlns":52},[54,4218,4219,4239],{},[57,4220,4221,4223,4225,4233,4236],{},[60,4222,134],{},[104,4224,131],{},[901,4226,4227,4230],{},[287,4228,4229],{},"1517.6",[287,4231,4232],{},"1177.2",[104,4234,4235],{},"≈",[287,4237,4238],{},"1.29",[64,4240,4241],{"encoding":66},"k = \\frac{1517.6}{1177.2} \\approx 1.29",[13,4243,4244,4245,977],{},"Теперь считаем ",[45,4246,4248],{"className":4247},[48],[50,4249,4250],{"xmlns":52},[54,4251,4252,4256],{},[57,4253,4254],{},[60,4255,143],{},[64,4257,143],{"encoding":66},[45,4259,4261],{"className":4260},[48],[50,4262,4263],{"xmlns":52,"display":122},[54,4264,4265,4308],{},[57,4266,4267,4269,4271,4277,4279,4281,4283,4289,4291,4293,4295,4297,4299,4301,4303,4305],{},[60,4268,143],{},[104,4270,131],{},[97,4272,4273,4275],{"accent":99},[60,4274,102],{},[104,4276,2845],{"stretchy":99},[104,4278,771],{},[60,4280,134],{},[104,4282,1312],{},[97,4284,4285,4287],{"accent":99},[60,4286,137],{},[104,4288,2845],{"stretchy":99},[104,4290,131],{},[287,4292,3908],{},[104,4294,771],{},[287,4296,4238],{},[104,4298,1312],{},[287,4300,3883],{},[104,4302,131],{},[104,4304,771],{},[287,4306,4307],{},"150.144",[64,4309,4310],{"encoding":66},"b = \\overline{y} - k \\cdot \\overline{x} = 73.8 - 1.29 \\cdot 173.6 = - 150.144",[13,4312,4313],{},"Теперь, когда у нас есть все коэффициенты, мы можем предсказывать вес\nдля любого роста. Пусть у нас будет баскетболист с ростом 210\nсантиметров. Попробуем предсказать его вес:",[45,4315,4317],{"className":4316},[48],[50,4318,4319],{"xmlns":52,"display":122},[54,4320,4321,4339],{},[57,4322,4323,4326,4328,4330,4332,4334,4336],{},[287,4324,4325],{},"210",[104,4327,1312],{},[287,4329,4238],{},[104,4331,771],{},[287,4333,4307],{},[104,4335,4235],{},[287,4337,4338],{},"120.75",[64,4340,4341],{"encoding":66},"210 \\cdot 1.29 - 150.144  \\approx 120.75",[13,4343,4344],{},"Выглядит вполне правдоподобно.",[37,4346,4348],{"id":4347},"обобщаем","Обобщаем",[13,4350,4351],{},"Теперь, когда мы умеем находить коэффициенты для одномерного случая,\nможно попробовать сделать это для случая многомерного. Тогда наша\nосновная формула будет такой:",[45,4353,4355],{"className":4354},[48],[50,4356,4357],{"xmlns":52,"display":122},[54,4358,4359,4417],{},[57,4360,4361,4367,4369,4375,4381,4383,4389,4395,4397,4399,4401,4407,4413,4415],{},[97,4362,4363,4365],{"accent":99},[60,4364,102],{},[104,4366,106],{"stretchy":99},[104,4368,131],{},[282,4370,4371,4373],{},[60,4372,134],{},[287,4374,289],{},[282,4376,4377,4379],{},[60,4378,137],{},[287,4380,289],{},[104,4382,140],{},[282,4384,4385,4387],{},[60,4386,134],{},[287,4388,299],{},[282,4390,4391,4393],{},[60,4392,137],{},[287,4394,299],{},[104,4396,140],{},[104,4398,511],{},[104,4400,140],{},[282,4402,4403,4405],{},[60,4404,134],{},[60,4406,460],{},[282,4408,4409,4411],{},[60,4410,137],{},[60,4412,460],{},[104,4414,140],{},[60,4416,143],{},[64,4418,532],{"encoding":66},[13,4420,4421],{},"Оптимизировать же мы будем функцию",[45,4423,4425],{"className":4424},[48],[50,4426,4427],{"xmlns":52,"display":122},[54,4428,4429,4531],{},[57,4430,4431,4445],{},[554,4432,4433,4435,4443],{},[104,4434,558],{},[57,4436,4437,4439,4441],{},[60,4438,563],{},[104,4440,131],{},[287,4442,289],{},[60,4444,919],{},[802,4446,4447,4529],{},[57,4448,4449,4451,4457,4459,4527],{},[104,4450,808],{"fence":99},[282,4452,4453,4455],{},[60,4454,102],{},[60,4456,563],{},[104,4458,771],{},[57,4460,4461,4463,4469,4479,4481,4487,4497,4499,4501,4503,4509,4511,4521,4523,4525],{},[104,4462,808],{"fence":99},[282,4464,4465,4467],{},[60,4466,134],{},[287,4468,289],{},[282,4470,4471,4473],{},[60,4472,137],{},[57,4474,4475,4477],{},[287,4476,289],{},[60,4478,563],{},[104,4480,140],{},[282,4482,4483,4485],{},[60,4484,134],{},[287,4486,299],{},[282,4488,4489,4491],{},[60,4490,137],{},[57,4492,4493,4495],{},[287,4494,299],{},[60,4496,563],{},[104,4498,140],{},[104,4500,511],{},[104,4502,140],{},[282,4504,4505,4507],{},[60,4506,134],{},[60,4508,460],{},[104,4510,2597],{},[282,4512,4513,4515],{},[60,4514,137],{},[57,4516,4517,4519],{},[60,4518,460],{},[60,4520,563],{},[104,4522,140],{},[60,4524,143],{},[104,4526,821],{"fence":99},[104,4528,821],{"fence":99},[287,4530,299],{},[64,4532,4533],{"encoding":66},"\\sum_{i = 1}^{n} \\left( y_{i} - \\left( k_{1}x_{1i} + k_{2}x_{2i} + \\ldots + k_{m}*x_{mi} + b \\right) \\right)^{2}",[13,4535,4536,4537,4550,4551,4568,4569,4582,4583,4601,4602,4619],{},"Сама оптимизация делается по тому же принципу. В итоге получается система из ",[45,4538,4540],{"className":4539},[48],[50,4541,4542],{"xmlns":52},[54,4543,4544,4548],{},[57,4545,4546],{},[60,4547,460],{},[64,4549,460],{"encoding":66},"\nпроизводных по каждому коэффициенту ",[45,4552,4554],{"className":4553},[48],[50,4555,4556],{"xmlns":52},[54,4557,4558,4566],{},[57,4559,4560],{},[282,4561,4562,4564],{},[60,4563,134],{},[60,4565,563],{},[64,4567,609],{"encoding":66},", одну производную по ",[45,4570,4572],{"className":4571},[48],[50,4573,4574],{"xmlns":52},[54,4575,4576,4580],{},[57,4577,4578],{},[60,4579,143],{},[64,4581,143],{"encoding":66},". В\nитоге мы получим систему из ",[45,4584,4586],{"className":4585},[48],[50,4587,4588],{"xmlns":52},[54,4589,4590,4598],{},[57,4591,4592,4594,4596],{},[60,4593,460],{},[104,4595,140],{},[287,4597,289],{},[64,4599,4600],{"encoding":66},"m + 1"," уравнения с ",[45,4603,4605],{"className":4604},[48],[50,4606,4607],{"xmlns":52},[54,4608,4609,4617],{},[57,4610,4611,4613,4615],{},[60,4612,460],{},[104,4614,140],{},[287,4616,289],{},[64,4618,4600],{"encoding":66}," неизвестным.",[13,4621,4622],{},"Решение такой системы уже будет лежать вне плоскости школьной\nматематики, но оно вполне осуществимо. В результате мы так же найдем необходимые коэффициенты.",[13,4624,4625],{},"Если в случае с одним аргументом наша функция задавала прямую, в случае\nдвух аргументов это уже будет плоскость, а при большем количестве —\nгиперплоскость.",[37,4627,4629],{"id":4628},"не-все-так-радужно","Не все так радужно",[13,4631,4632],{},"Казалось бы, если обучение настолько быстрое и простое (всего лишь\nпосчитать несколько формул), почему линейная регрессия не применяется\nповсеместно? Ответ тут лежит в слове «линейная». И сейчас попробуем\nразобраться почему.",[13,4634,4635,4636,4649,4650,4663],{},"Давайте вновь рассмотрим простейший случай. Зависимость ",[45,4637,4639],{"className":4638},[48],[50,4640,4641],{"xmlns":52},[54,4642,4643,4647],{},[57,4644,4645],{},[60,4646,102],{},[64,4648,102],{"encoding":66}," от ",[45,4651,4653],{"className":4652},[48],[50,4654,4655],{"xmlns":52},[54,4656,4657,4661],{},[57,4658,4659],{},[60,4660,137],{},[64,4662,137],{"encoding":66}," у нас\nлинейная. Это значит, что мы можем хорошо предсказывать значения, только\nесли в реальном мире зависимость между данными линейная или близка к\nтакой. Если есть серьезные отличия от линейной зависимости, модель\nлинейной регрессии по-прежнему будет давать какой-то результат, но он\nбудет сильно расходиться с реальностью.",[13,4665,4666],{},[1053,4667],{"alt":4668,"src":4669},"Проблема с нелинейной зависимостью","/img/blog/ml-basic-2/image3.png",[13,4671,4672],{},"На картинке выше мы видим нелинейное распределение реальных данных\n(синие точки). Модель обучилась, постаравшись минимизировать расстояния\nмежду реальными данными и предсказаниями (красные точки). Но хоть\nрасстояние и минимально возможное для данного случая, предсказание\nмодели в зависимости от области может как быть относительно точным (2-я\nи 4-я точки), так и очень неточным (3-я точка).",[13,4674,4675],{},"Варианты с двумя или более аргументами также подвержены такому\nограничению (но только уже не прямой, а плоскости или гиперплоскости).",[13,4677,4678],{},"Именно из-за этой своей особенности линейная регрессия применяется\nсравнительно редко. И применяется она только после обязательной проверки\nданных на линейную зависимость. Однако, если такая зависимость есть, мы\nполучаем очень быстрый инструмент, гораздо быстрее любой из других\nмоделей машинного обучения.",[13,4680,4681],{},"Например, линейная регрессия очень часто применяется в экономике, где линейность зависимости точно известна:\nпрогнозирование продаж, активов, ВВП и так далее. Также она применяется банками и страховыми компаниями.\nВ этой сфере важно не просто дать предсказание, но и объяснить его. И линейная регрессия лучше всего для этого подходит.\nВсе ее параметры видны и понятны. В отличие от, например, нейросетей,\nкоторые, как мы увидим в следующих статьях цикла, для внешнего наблюдателя являются «черным ящиком».",[37,4683,4685],{"id":4684},"вместо-послесловия","Вместо послесловия",[13,4687,4688],{},"Как и обещал, показываю, как можно упростить формулы коэффициентов. Для\nэтого нам понадобятся пара математических трюков и знания статистики.",[13,4690,4691],{},"Напомню исходное выражение:",[45,4693,4695],{"className":4694},[48],[50,4696,4697],{"xmlns":52,"display":122},[54,4698,4699,4805],{},[57,4700,4701,4703,4717,4751,4753,4767,4801,4803],{},[60,4702,134],{},[554,4704,4705,4707,4715],{},[104,4706,558],{},[57,4708,4709,4711,4713],{},[60,4710,563],{},[104,4712,131],{},[287,4714,289],{},[60,4716,919],{},[57,4718,4719,4721,4741,4743,4749],{},[104,4720,808],{"fence":99},[57,4722,4723,4725,4731,4733,4739],{},[104,4724,808],{"fence":99},[282,4726,4727,4729],{},[60,4728,137],{},[60,4730,563],{},[104,4732,771],{},[97,4734,4735,4737],{"accent":99},[60,4736,137],{},[104,4738,2845],{"stretchy":99},[104,4740,821],{"fence":99},[104,4742,1312],{},[282,4744,4745,4747],{},[60,4746,137],{},[60,4748,563],{},[104,4750,821],{"fence":99},[104,4752,140],{},[554,4754,4755,4757,4765],{},[104,4756,558],{},[57,4758,4759,4761,4763],{},[60,4760,563],{},[104,4762,131],{},[287,4764,289],{},[60,4766,919],{},[57,4768,4769,4771,4791,4793,4799],{},[104,4770,808],{"fence":99},[57,4772,4773,4775,4781,4783,4789],{},[104,4774,808],{"fence":99},[97,4776,4777,4779],{"accent":99},[60,4778,102],{},[104,4780,2845],{"stretchy":99},[104,4782,771],{},[282,4784,4785,4787],{},[60,4786,102],{},[60,4788,563],{},[104,4790,821],{"fence":99},[104,4792,1312],{},[282,4794,4795,4797],{},[60,4796,137],{},[60,4798,563],{},[104,4800,821],{"fence":99},[104,4802,131],{},[287,4804,785],{},[64,4806,3273],{"encoding":66},[13,4808,4809,4810,4827],{},"Будем рассматривать только его первое слагаемое. Добавим к ",[45,4811,4813],{"className":4812},[48],[50,4814,4815],{"xmlns":52},[54,4816,4817,4825],{},[57,4818,4819],{},[282,4820,4821,4823],{},[60,4822,137],{},[60,4824,563],{},[64,4826,1173],{"encoding":66},"\nсреднее значение, и сразу вычтем его для компенсации:",[45,4829,4831],{"className":4830},[48],[50,4832,4833],{"xmlns":52,"display":122},[54,4834,4835,4961],{},[57,4836,4837,4839,4853,4887,4889,4891,4905],{},[60,4838,134],{},[554,4840,4841,4843,4851],{},[104,4842,558],{},[57,4844,4845,4847,4849],{},[60,4846,563],{},[104,4848,131],{},[287,4850,289],{},[60,4852,919],{},[57,4854,4855,4857,4877,4879,4885],{},[104,4856,808],{"fence":99},[57,4858,4859,4861,4867,4869,4875],{},[104,4860,808],{"fence":99},[282,4862,4863,4865],{},[60,4864,137],{},[60,4866,563],{},[104,4868,771],{},[97,4870,4871,4873],{"accent":99},[60,4872,137],{},[104,4874,2845],{"stretchy":99},[104,4876,821],{"fence":99},[104,4878,1312],{},[282,4880,4881,4883],{},[60,4882,137],{},[60,4884,563],{},[104,4886,821],{"fence":99},[104,4888,131],{},[60,4890,134],{},[554,4892,4893,4895,4903],{},[104,4894,558],{},[57,4896,4897,4899,4901],{},[60,4898,563],{},[104,4900,131],{},[287,4902,289],{},[60,4904,919],{},[57,4906,4907,4909,4929,4931,4959],{},[104,4908,808],{"fence":99},[57,4910,4911,4913,4919,4921,4927],{},[104,4912,808],{"fence":99},[282,4914,4915,4917],{},[60,4916,137],{},[60,4918,563],{},[104,4920,771],{},[97,4922,4923,4925],{"accent":99},[60,4924,137],{},[104,4926,2845],{"stretchy":99},[104,4928,821],{"fence":99},[104,4930,1312],{},[57,4932,4933,4935,4941,4943,4949,4951,4957],{},[104,4934,808],{"fence":99},[282,4936,4937,4939],{},[60,4938,137],{},[60,4940,563],{},[104,4942,140],{},[97,4944,4945,4947],{"accent":99},[60,4946,137],{},[104,4948,2845],{"stretchy":99},[104,4950,771],{},[97,4952,4953,4955],{"accent":99},[60,4954,137],{},[104,4956,2845],{"stretchy":99},[104,4958,821],{"fence":99},[104,4960,821],{"fence":99},[64,4962,4963],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( \\left( x_{i} - \\overline{x} \\right) \\cdot x_{i} \\right) =\nk \\sum_{i = 1}^{n} \\left( \\left(x_{i} - \\overline{x} \\right) \\cdot \\left(x_{i} + \\overline{x} - \\overline{x} \\right) \\right)",[13,4965,4966],{},"Раскроем скобки:",[45,4968,4970],{"className":4969},[48],[50,4971,4972],{"xmlns":52,"display":122},[54,4973,4974,5146],{},[57,4975,4976,4978,4992,5048,5050,5052,5066],{},[60,4977,134],{},[554,4979,4980,4982,4990],{},[104,4981,558],{},[57,4983,4984,4986,4988],{},[60,4985,563],{},[104,4987,131],{},[287,4989,289],{},[60,4991,919],{},[57,4993,4994,4996,5016,5018,5046],{},[104,4995,808],{"fence":99},[57,4997,4998,5000,5006,5008,5014],{},[104,4999,808],{"fence":99},[282,5001,5002,5004],{},[60,5003,137],{},[60,5005,563],{},[104,5007,771],{},[97,5009,5010,5012],{"accent":99},[60,5011,137],{},[104,5013,2845],{"stretchy":99},[104,5015,821],{"fence":99},[104,5017,1312],{},[57,5019,5020,5022,5028,5030,5036,5038,5044],{},[104,5021,808],{"fence":99},[282,5023,5024,5026],{},[60,5025,137],{},[60,5027,563],{},[104,5029,140],{},[97,5031,5032,5034],{"accent":99},[60,5033,137],{},[104,5035,2845],{"stretchy":99},[104,5037,771],{},[97,5039,5040,5042],{"accent":99},[60,5041,137],{},[104,5043,2845],{"stretchy":99},[104,5045,821],{"fence":99},[104,5047,821],{"fence":99},[104,5049,131],{},[60,5051,134],{},[554,5053,5054,5056,5064],{},[104,5055,558],{},[57,5057,5058,5060,5062],{},[60,5059,563],{},[104,5061,131],{},[287,5063,289],{},[60,5065,919],{},[57,5067,5068,5070,5078,5080,5086,5092,5094,5100,5106,5108,5114,5120,5122,5132,5134,5144],{},[104,5069,808],{"fence":99},[1737,5071,5072,5074,5076],{},[60,5073,137],{},[60,5075,563],{},[287,5077,299],{},[104,5079,140],{},[282,5081,5082,5084],{},[60,5083,137],{},[60,5085,563],{},[97,5087,5088,5090],{"accent":99},[60,5089,137],{},[104,5091,2845],{"stretchy":99},[104,5093,771],{},[282,5095,5096,5098],{},[60,5097,137],{},[60,5099,563],{},[97,5101,5102,5104],{"accent":99},[60,5103,137],{},[104,5105,2845],{"stretchy":99},[104,5107,771],{},[282,5109,5110,5112],{},[60,5111,137],{},[60,5113,563],{},[97,5115,5116,5118],{"accent":99},[60,5117,137],{},[104,5119,2845],{"stretchy":99},[104,5121,771],{},[802,5123,5124,5130],{},[97,5125,5126,5128],{"accent":99},[60,5127,137],{},[104,5129,2845],{"stretchy":99},[287,5131,299],{},[104,5133,140],{},[802,5135,5136,5142],{},[97,5137,5138,5140],{"accent":99},[60,5139,137],{},[104,5141,2845],{"stretchy":99},[287,5143,299],{},[104,5145,821],{"fence":99},[64,5147,5148],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( \\left( x_{i} - \\overline{x} \\right) \\cdot \\left(x_{i} + \\overline{x} - \\overline{x} \\right) \\right) =\nk \\sum_{i = 1}^{n} \\left( x_{i}^{2} + x_{i} \\overline{x} - x_{i} \\overline{x} - x_{i} \\overline{x} - {\\overline{x}}^{2} + {\\overline{x}}^{2} \\right)",[13,5150,5151],{},"Разделим сумму на две части:",[45,5153,5155],{"className":5154},[48],[50,5156,5157],{"xmlns":52,"display":122},[54,5158,5159,5377],{},[57,5160,5161,5163,5177,5257,5259,5261,5275,5329,5331,5333,5347],{},[60,5162,134],{},[554,5164,5165,5167,5175],{},[104,5166,558],{},[57,5168,5169,5171,5173],{},[60,5170,563],{},[104,5172,131],{},[287,5174,289],{},[60,5176,919],{},[57,5178,5179,5181,5189,5191,5197,5203,5205,5211,5217,5219,5225,5231,5233,5243,5245,5255],{},[104,5180,808],{"fence":99},[1737,5182,5183,5185,5187],{},[60,5184,137],{},[60,5186,563],{},[287,5188,299],{},[104,5190,140],{},[282,5192,5193,5195],{},[60,5194,137],{},[60,5196,563],{},[97,5198,5199,5201],{"accent":99},[60,5200,137],{},[104,5202,2845],{"stretchy":99},[104,5204,771],{},[282,5206,5207,5209],{},[60,5208,137],{},[60,5210,563],{},[97,5212,5213,5215],{"accent":99},[60,5214,137],{},[104,5216,2845],{"stretchy":99},[104,5218,771],{},[282,5220,5221,5223],{},[60,5222,137],{},[60,5224,563],{},[97,5226,5227,5229],{"accent":99},[60,5228,137],{},[104,5230,2845],{"stretchy":99},[104,5232,771],{},[802,5234,5235,5241],{},[97,5236,5237,5239],{"accent":99},[60,5238,137],{},[104,5240,2845],{"stretchy":99},[287,5242,299],{},[104,5244,140],{},[802,5246,5247,5253],{},[97,5248,5249,5251],{"accent":99},[60,5250,137],{},[104,5252,2845],{"stretchy":99},[287,5254,299],{},[104,5256,821],{"fence":99},[104,5258,131],{},[60,5260,134],{},[554,5262,5263,5265,5273],{},[104,5264,558],{},[57,5266,5267,5269,5271],{},[60,5268,563],{},[104,5270,131],{},[287,5272,289],{},[60,5274,919],{},[57,5276,5277,5279,5287,5289,5295,5301,5303,5309,5315,5317,5327],{},[104,5278,808],{"fence":99},[1737,5280,5281,5283,5285],{},[60,5282,137],{},[60,5284,563],{},[287,5286,299],{},[104,5288,771],{},[282,5290,5291,5293],{},[60,5292,137],{},[60,5294,563],{},[97,5296,5297,5299],{"accent":99},[60,5298,137],{},[104,5300,2845],{"stretchy":99},[104,5302,771],{},[282,5304,5305,5307],{},[60,5306,137],{},[60,5308,563],{},[97,5310,5311,5313],{"accent":99},[60,5312,137],{},[104,5314,2845],{"stretchy":99},[104,5316,140],{},[802,5318,5319,5325],{},[97,5320,5321,5323],{"accent":99},[60,5322,137],{},[104,5324,2845],{"stretchy":99},[287,5326,299],{},[104,5328,821],{"fence":99},[104,5330,140],{},[60,5332,134],{},[554,5334,5335,5337,5345],{},[104,5336,558],{},[57,5338,5339,5341,5343],{},[60,5340,563],{},[104,5342,131],{},[287,5344,289],{},[60,5346,919],{},[57,5348,5349,5351,5357,5363,5365,5375],{},[104,5350,808],{"fence":99},[282,5352,5353,5355],{},[60,5354,137],{},[60,5356,563],{},[97,5358,5359,5361],{"accent":99},[60,5360,137],{},[104,5362,2845],{"stretchy":99},[104,5364,771],{},[802,5366,5367,5373],{},[97,5368,5369,5371],{"accent":99},[60,5370,137],{},[104,5372,2845],{"stretchy":99},[287,5374,299],{},[104,5376,821],{"fence":99},[64,5378,5379],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( x_{i}^{2} + x_{i} \\overline{x} - x_{i} \\overline{x} - x_{i} \\overline{x} - {\\overline{x}}^{2} + {\\overline{x}}^{2} \\right) =\nk \\sum_{i = 1}^{n} \\left( x_{i}^{2} - x_{i} \\overline{x} - x_{i} \\overline{x} + {\\overline{x}}^{2} \\right) +\nk \\sum_{i = 1}^{n} \\left( x_{i}\\overline{x} - {\\overline{x}}^{2} \\right)",[13,5381,5382],{},"В первой части мы видим формулу квадрата разности:",[45,5384,5386],{"className":5385},[48],[50,5387,5388],{"xmlns":52,"display":122},[54,5389,5390,5564],{},[57,5391,5392,5394,5408,5462,5464,5466,5480,5522,5524,5526,5540],{},[60,5393,134],{},[554,5395,5396,5398,5406],{},[104,5397,558],{},[57,5399,5400,5402,5404],{},[60,5401,563],{},[104,5403,131],{},[287,5405,289],{},[60,5407,919],{},[57,5409,5410,5412,5420,5422,5428,5434,5436,5442,5448,5450,5460],{},[104,5411,808],{"fence":99},[1737,5413,5414,5416,5418],{},[60,5415,137],{},[60,5417,563],{},[287,5419,299],{},[104,5421,771],{},[282,5423,5424,5426],{},[60,5425,137],{},[60,5427,563],{},[97,5429,5430,5432],{"accent":99},[60,5431,137],{},[104,5433,2845],{"stretchy":99},[104,5435,771],{},[282,5437,5438,5440],{},[60,5439,137],{},[60,5441,563],{},[97,5443,5444,5446],{"accent":99},[60,5445,137],{},[104,5447,2845],{"stretchy":99},[104,5449,140],{},[802,5451,5452,5458],{},[97,5453,5454,5456],{"accent":99},[60,5455,137],{},[104,5457,2845],{"stretchy":99},[287,5459,299],{},[104,5461,821],{"fence":99},[104,5463,131],{},[60,5465,134],{},[554,5467,5468,5470,5478],{},[104,5469,558],{},[57,5471,5472,5474,5476],{},[60,5473,563],{},[104,5475,131],{},[287,5477,289],{},[60,5479,919],{},[57,5481,5482,5484,5492,5494,5496,5502,5508,5510,5520],{},[104,5483,808],{"fence":99},[1737,5485,5486,5488,5490],{},[60,5487,137],{},[60,5489,563],{},[287,5491,299],{},[104,5493,771],{},[287,5495,299],{},[282,5497,5498,5500],{},[60,5499,137],{},[60,5501,563],{},[97,5503,5504,5506],{"accent":99},[60,5505,137],{},[104,5507,2845],{"stretchy":99},[104,5509,140],{},[802,5511,5512,5518],{},[97,5513,5514,5516],{"accent":99},[60,5515,137],{},[104,5517,2845],{"stretchy":99},[287,5519,299],{},[104,5521,821],{"fence":99},[104,5523,131],{},[60,5525,134],{},[554,5527,5528,5530,5538],{},[104,5529,558],{},[57,5531,5532,5534,5536],{},[60,5533,563],{},[104,5535,131],{},[287,5537,289],{},[60,5539,919],{},[802,5541,5542,5562],{},[57,5543,5544,5546,5552,5554,5560],{},[104,5545,808],{"fence":99},[282,5547,5548,5550],{},[60,5549,137],{},[60,5551,563],{},[104,5553,771],{},[97,5555,5556,5558],{"accent":99},[60,5557,137],{},[104,5559,2845],{"stretchy":99},[104,5561,821],{"fence":99},[287,5563,299],{},[64,5565,5566],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( x_{i}^{2} - x_{i} \\overline{x} - x_{i}\\overline{x} + {\\overline{x}}^{2} \\right) =\nk \\sum_{i = 1}^{n} \\left( x_{i}^{2} - 2 x_{i} \\overline{x} + {\\overline{x}}^{2} \\right) = k \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right)^{2}",[13,5568,5569,5570,5588],{},"Осталось разобраться со второй частью. Выносим ",[45,5571,5573],{"className":5572},[48],[50,5574,5575],{"xmlns":52},[54,5576,5577,5585],{},[57,5578,5579],{},[97,5580,5581,5583],{"accent":99},[60,5582,137],{},[104,5584,2845],{"stretchy":99},[64,5586,5587],{"encoding":66},"\\overline{x}"," за сумму:",[45,5590,5592],{"className":5591},[48],[50,5593,5594],{"xmlns":52,"display":122},[54,5595,5596,5688],{},[57,5597,5598,5600,5614,5644,5646,5648,5654,5668],{},[60,5599,134],{},[554,5601,5602,5604,5612],{},[104,5603,558],{},[57,5605,5606,5608,5610],{},[60,5607,563],{},[104,5609,131],{},[287,5611,289],{},[60,5613,919],{},[57,5615,5616,5618,5624,5630,5632,5642],{},[104,5617,808],{"fence":99},[282,5619,5620,5622],{},[60,5621,137],{},[60,5623,563],{},[97,5625,5626,5628],{"accent":99},[60,5627,137],{},[104,5629,2845],{"stretchy":99},[104,5631,771],{},[802,5633,5634,5640],{},[97,5635,5636,5638],{"accent":99},[60,5637,137],{},[104,5639,2845],{"stretchy":99},[287,5641,299],{},[104,5643,821],{"fence":99},[104,5645,131],{},[60,5647,134],{},[97,5649,5650,5652],{"accent":99},[60,5651,137],{},[104,5653,2845],{"stretchy":99},[554,5655,5656,5658,5666],{},[104,5657,558],{},[57,5659,5660,5662,5664],{},[60,5661,563],{},[104,5663,131],{},[287,5665,289],{},[60,5667,919],{},[57,5669,5670,5672,5678,5680,5686],{},[104,5671,808],{"fence":99},[282,5673,5674,5676],{},[60,5675,137],{},[60,5677,563],{},[104,5679,771],{},[97,5681,5682,5684],{"accent":99},[60,5683,137],{},[104,5685,2845],{"stretchy":99},[104,5687,821],{"fence":99},[64,5689,5690],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( x_{i}\\overline{x} - {\\overline{x}}^{2} \\right) =\nk \\overline{x}\\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right)",[13,5692,5693,5694,5724],{},"А вот теперь тот самый трюк со статистикой.\n",[45,5695,5697],{"className":5696},[48],[50,5698,5699],{"xmlns":52},[54,5700,5701,5721],{},[57,5702,5703,5705,5711,5713,5719],{},[104,5704,808],{"stretchy":1272},[282,5706,5707,5709],{},[60,5708,137],{},[60,5710,563],{},[104,5712,771],{},[97,5714,5715,5717],{"accent":99},[60,5716,137],{},[104,5718,2845],{"stretchy":99},[104,5720,821],{"stretchy":1272},[64,5722,5723],{"encoding":66},"( x_{i} - \\overline{x} )"," — это отклонение от среднего. И\nсамое интересное, что сумма таких отклонений всегда равна нулю (это\nследует из статистики):",[45,5726,5728],{"className":5727},[48],[50,5729,5730],{"xmlns":52,"display":122},[54,5731,5732,5772],{},[57,5733,5734,5748,5768,5770],{},[554,5735,5736,5738,5746],{},[104,5737,558],{},[57,5739,5740,5742,5744],{},[60,5741,563],{},[104,5743,131],{},[287,5745,289],{},[60,5747,919],{},[57,5749,5750,5752,5758,5760,5766],{},[104,5751,808],{"fence":99},[282,5753,5754,5756],{},[60,5755,137],{},[60,5757,563],{},[104,5759,771],{},[97,5761,5762,5764],{"accent":99},[60,5763,137],{},[104,5765,2845],{"stretchy":99},[104,5767,821],{"fence":99},[104,5769,131],{},[287,5771,785],{},[64,5773,5774],{"encoding":66},"\\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right) = 0",[13,5776,5777],{},"Таким образом эту часть выражения можно опустить.",[13,5779,5780],{},"Вернемся к исходному уравнению, и так же обработаем его вторую часть:",[45,5782,5784],{"className":5783},[48],[50,5785,5786],{"xmlns":52,"display":122},[54,5787,5788,6010],{},[57,5789,5790,5804,5838,5840,5854,5910,5912,5926,5946,5948,5968,5970,5976,5990],{},[554,5791,5792,5794,5802],{},[104,5793,558],{},[57,5795,5796,5798,5800],{},[60,5797,563],{},[104,5799,131],{},[287,5801,289],{},[60,5803,919],{},[57,5805,5806,5808,5828,5830,5836],{},[104,5807,808],{"fence":99},[57,5809,5810,5812,5818,5820,5826],{},[104,5811,808],{"fence":99},[97,5813,5814,5816],{"accent":99},[60,5815,102],{},[104,5817,2845],{"stretchy":99},[104,5819,771],{},[282,5821,5822,5824],{},[60,5823,102],{},[60,5825,563],{},[104,5827,821],{"fence":99},[104,5829,1312],{},[282,5831,5832,5834],{},[60,5833,137],{},[60,5835,563],{},[104,5837,821],{"fence":99},[104,5839,131],{},[554,5841,5842,5844,5852],{},[104,5843,558],{},[57,5845,5846,5848,5850],{},[60,5847,563],{},[104,5849,131],{},[287,5851,289],{},[60,5853,919],{},[57,5855,5856,5858,5878,5880,5908],{},[104,5857,808],{"fence":99},[57,5859,5860,5862,5868,5870,5876],{},[104,5861,808],{"fence":99},[97,5863,5864,5866],{"accent":99},[60,5865,102],{},[104,5867,2845],{"stretchy":99},[104,5869,771],{},[282,5871,5872,5874],{},[60,5873,102],{},[60,5875,563],{},[104,5877,821],{"fence":99},[104,5879,1312],{},[57,5881,5882,5884,5890,5892,5898,5900,5906],{},[104,5883,808],{"fence":99},[282,5885,5886,5888],{},[60,5887,137],{},[60,5889,563],{},[104,5891,771],{},[97,5893,5894,5896],{"accent":99},[60,5895,137],{},[104,5897,2845],{"stretchy":99},[104,5899,140],{},[97,5901,5902,5904],{"accent":99},[60,5903,137],{},[104,5905,2845],{"stretchy":99},[104,5907,821],{"fence":99},[104,5909,821],{"fence":99},[104,5911,131],{},[554,5913,5914,5916,5924],{},[104,5915,558],{},[57,5917,5918,5920,5922],{},[60,5919,563],{},[104,5921,131],{},[287,5923,289],{},[60,5925,919],{},[57,5927,5928,5930,5936,5938,5944],{},[104,5929,808],{"fence":99},[97,5931,5932,5934],{"accent":99},[60,5933,102],{},[104,5935,2845],{"stretchy":99},[104,5937,771],{},[282,5939,5940,5942],{},[60,5941,102],{},[60,5943,563],{},[104,5945,821],{"fence":99},[104,5947,1312],{},[57,5949,5950,5952,5958,5960,5966],{},[104,5951,808],{"fence":99},[282,5953,5954,5956],{},[60,5955,137],{},[60,5957,563],{},[104,5959,771],{},[97,5961,5962,5964],{"accent":99},[60,5963,137],{},[104,5965,2845],{"stretchy":99},[104,5967,821],{"fence":99},[104,5969,140],{},[97,5971,5972,5974],{"accent":99},[60,5973,137],{},[104,5975,2845],{"stretchy":99},[554,5977,5978,5980,5988],{},[104,5979,558],{},[57,5981,5982,5984,5986],{},[60,5983,563],{},[104,5985,131],{},[287,5987,289],{},[60,5989,919],{},[57,5991,5992,5994,6000,6002,6008],{},[104,5993,808],{"fence":99},[97,5995,5996,5998],{"accent":99},[60,5997,102],{},[104,5999,2845],{"stretchy":99},[104,6001,771],{},[282,6003,6004,6006],{},[60,6005,102],{},[60,6007,563],{},[104,6009,821],{"fence":99},[64,6011,6012],{"encoding":66},"\\sum_{i = 1}^{n} \\left( \\left( \\overline{y} - y_{i} \\right) \\cdot x_{i} \\right) =\n\\sum_{i = 1}^{n} \\left( \\left( \\overline{y} - y_{i} \\right) \\cdot \\left( x_{i} - \\overline{x} + \\overline{x} \\right) \\right) =\n\\sum_{i = 1}^{n} \\left( \\overline{y} - y_{i} \\right) \\cdot \\left( x_{i} - \\overline{x} \\right) +\n\\overline{x} \\sum_{i = 1}^{n} \\left( \\overline{y} - y_{i} \\right)",[13,6014,6015],{},"Второе слагаемое так же обратится в ноль, и мы получаем итоговое\nуравнение:",[45,6017,6019],{"className":6018},[48],[50,6020,6021],{"xmlns":52,"display":122},[54,6022,6023,6127],{},[57,6024,6025,6027,6041,6065,6067,6081,6101,6103,6123,6125],{},[60,6026,134],{},[554,6028,6029,6031,6039],{},[104,6030,558],{},[57,6032,6033,6035,6037],{},[60,6034,563],{},[104,6036,131],{},[287,6038,289],{},[60,6040,919],{},[802,6042,6043,6063],{},[57,6044,6045,6047,6053,6055,6061],{},[104,6046,808],{"fence":99},[282,6048,6049,6051],{},[60,6050,137],{},[60,6052,563],{},[104,6054,771],{},[97,6056,6057,6059],{"accent":99},[60,6058,137],{},[104,6060,2845],{"stretchy":99},[104,6062,821],{"fence":99},[287,6064,299],{},[104,6066,140],{},[554,6068,6069,6071,6079],{},[104,6070,558],{},[57,6072,6073,6075,6077],{},[60,6074,563],{},[104,6076,131],{},[287,6078,289],{},[60,6080,919],{},[57,6082,6083,6085,6091,6093,6099],{},[104,6084,808],{"fence":99},[97,6086,6087,6089],{"accent":99},[60,6088,102],{},[104,6090,2845],{"stretchy":99},[104,6092,771],{},[282,6094,6095,6097],{},[60,6096,102],{},[60,6098,563],{},[104,6100,821],{"fence":99},[104,6102,1312],{},[57,6104,6105,6107,6113,6115,6121],{},[104,6106,808],{"fence":99},[282,6108,6109,6111],{},[60,6110,137],{},[60,6112,563],{},[104,6114,771],{},[97,6116,6117,6119],{"accent":99},[60,6118,137],{},[104,6120,2845],{"stretchy":99},[104,6122,821],{"fence":99},[104,6124,131],{},[287,6126,785],{},[64,6128,6129],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right)^{2} +\n\\sum_{i = 1}^{n} \\left( \\overline{y} - y_{i} \\right)\\cdot \\left( x_{i} - \\overline{x} \\right) = 0",[13,6131,6132],{},"Отсюда, перенеся второе слагаемое направо, поменяв в нем знак и поделив,\nполучаем:",[45,6134,6136],{"className":6135},[48],[50,6137,6138],{"xmlns":52,"display":122},[54,6139,6140,6240],{},[57,6141,6142,6144,6158,6182,6184,6198,6218,6220],{},[60,6143,134],{},[554,6145,6146,6148,6156],{},[104,6147,558],{},[57,6149,6150,6152,6154],{},[60,6151,563],{},[104,6153,131],{},[287,6155,289],{},[60,6157,919],{},[802,6159,6160,6180],{},[57,6161,6162,6164,6170,6172,6178],{},[104,6163,808],{"fence":99},[282,6165,6166,6168],{},[60,6167,137],{},[60,6169,563],{},[104,6171,771],{},[97,6173,6174,6176],{"accent":99},[60,6175,137],{},[104,6177,2845],{"stretchy":99},[104,6179,821],{"fence":99},[287,6181,299],{},[104,6183,131],{},[554,6185,6186,6188,6196],{},[104,6187,558],{},[57,6189,6190,6192,6194],{},[60,6191,563],{},[104,6193,131],{},[287,6195,289],{},[60,6197,919],{},[57,6199,6200,6202,6208,6210,6216],{},[104,6201,808],{"fence":99},[282,6203,6204,6206],{},[60,6205,102],{},[60,6207,563],{},[104,6209,771],{},[97,6211,6212,6214],{"accent":99},[60,6213,102],{},[104,6215,2845],{"stretchy":99},[104,6217,821],{"fence":99},[104,6219,1312],{},[57,6221,6222,6224,6230,6232,6238],{},[104,6223,808],{"fence":99},[282,6225,6226,6228],{},[60,6227,137],{},[60,6229,563],{},[104,6231,771],{},[97,6233,6234,6236],{"accent":99},[60,6235,137],{},[104,6237,2845],{"stretchy":99},[104,6239,821],{"fence":99},[64,6241,6242],{"encoding":66},"k \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right)^{2} =\n\\sum_{i = 1}^{n} \\left( y_{i} - \\overline{y} \\right) \\cdot \\left( x_{i} - \\overline{x} \\right)",[45,6244,6246],{"className":6245},[48],[50,6247,6248],{"xmlns":52,"display":122},[54,6249,6250,6356],{},[57,6251,6252,6254,6256],{},[60,6253,134],{},[104,6255,131],{},[901,6257,6258,6316],{},[57,6259,6260,6274,6294,6296],{},[554,6261,6262,6264,6272],{},[104,6263,558],{},[57,6265,6266,6268,6270],{},[60,6267,563],{},[104,6269,131],{},[287,6271,289],{},[60,6273,919],{},[57,6275,6276,6278,6284,6286,6292],{},[104,6277,808],{"fence":99},[282,6279,6280,6282],{},[60,6281,102],{},[60,6283,563],{},[104,6285,771],{},[97,6287,6288,6290],{"accent":99},[60,6289,102],{},[104,6291,2845],{"stretchy":99},[104,6293,821],{"fence":99},[104,6295,2597],{},[57,6297,6298,6300,6306,6308,6314],{},[104,6299,808],{"fence":99},[282,6301,6302,6304],{},[60,6303,137],{},[60,6305,563],{},[104,6307,771],{},[97,6309,6310,6312],{"accent":99},[60,6311,137],{},[104,6313,2845],{"stretchy":99},[104,6315,821],{"fence":99},[57,6317,6318,6332],{},[554,6319,6320,6322,6330],{},[104,6321,558],{},[57,6323,6324,6326,6328],{},[60,6325,563],{},[104,6327,131],{},[287,6329,289],{},[60,6331,919],{},[802,6333,6334,6354],{},[57,6335,6336,6338,6344,6346,6352],{},[104,6337,808],{"fence":99},[282,6339,6340,6342],{},[60,6341,137],{},[60,6343,563],{},[104,6345,771],{},[97,6347,6348,6350],{"accent":99},[60,6349,137],{},[104,6351,2845],{"stretchy":99},[104,6353,821],{"fence":99},[287,6355,299],{},[64,6357,6358],{"encoding":66},"k = \\frac{\n  \\sum_{i = 1}^{n} \\left( y_{i} - \\overline{y} \\right)*\\left( x_{i} - \\overline{x} \\right)\n}{\n  \\sum_{i = 1}^{n} \\left( x_{i} - \\overline{x} \\right)^{2}\n}",[6360,6361,6363,6403,6416,6429,6442,6548,6561,6643],"faq",{"title":6362},"Вопросы и ответы",[6364,6365,6367,6374],"faq-item",{"value":6366},"item-1",[6368,6369,6371],"template",{"v-slot:question":6370},"",[13,6372,6373],{},"Что значит «линейная» в линейной регрессии?",[6368,6375,6376],{"v-slot:answer":6370},[13,6377,6378,6379,6402],{},"Это означает, что модель предполагает линейную (прямую) зависимость\nмежду входными данными и результатом. Формула предсказания — это\nуравнение прямой ",[45,6380,6382],{"className":6381},[48],[50,6383,6384],{"xmlns":52},[54,6385,6386,6400],{},[57,6387,6388,6390,6392,6394,6396,6398],{},[60,6389,102],{},[104,6391,131],{},[60,6393,134],{},[60,6395,137],{},[104,6397,140],{},[60,6399,143],{},[64,6401,146],{"encoding":66}," (или уравнение плоскости/гиперплоскости\nдля нескольких признаков). Если реальные данные описываются более\nсложной зависимостью, модель будет давать неточные результаты.",[6364,6404,6406,6411],{"value":6405},"item-2",[6368,6407,6408],{"v-slot:question":6370},[13,6409,6410],{},"Зачем в формуле потерь используется квадрат разности, а не просто модуль?",[6368,6412,6413],{"v-slot:answer":6370},[13,6414,6415],{},"Модуль неудобен математически — он не имеет производной в точке нуля,\nчто мешает применять стандартные методы оптимизации. Квадрат разности\nимеет производную везде, и при этом выполняет ту же роль: чем больше\nошибка, тем больше значение функции. Кроме того, квадрат дополнительно\nштрафует за крупные ошибки, что часто полезно на практике.",[6364,6417,6419,6424],{"value":6418},"item-3",[6368,6420,6421],{"v-slot:question":6370},[13,6422,6423],{},"Что такое метод наименьших квадратов?",[6368,6425,6426],{"v-slot:answer":6370},[13,6427,6428],{},"Это способ подбора параметров модели, при котором минимизируется сумма\nквадратов разностей между правильными ответами и предсказаниями модели.\nГеометрически это означает, что мы проводим прямую (или плоскость) так,\nчтобы суммарное расстояние от неё до всех точек данных было минимальным.",[6364,6430,6432,6437],{"value":6431},"item-4",[6368,6433,6434],{"v-slot:question":6370},[13,6435,6436],{},"Почему мы приравниваем производные к нулю?",[6368,6438,6439],{"v-slot:answer":6370},[13,6440,6441],{},"Из школьной математики известно, что экстремум функции (минимум или\nмаксимум) находится там, где производная равна нулю. Функция потерь\nлинейной регрессии представляет собой параболоид — поверхность с\nединственным минимумом. Поэтому точка, где производная равна нулю,\nгарантированно даёт нам минимум, а не максимум.",[6364,6443,6445,6450],{"value":6444},"item-5",[6368,6446,6447],{"v-slot:question":6370},[13,6448,6449],{},"Как линейная регрессия работает с несколькими входными признаками?",[6368,6451,6452],{"v-slot:answer":6370},[13,6453,6454,6455,6478,6479,6547],{},"Принцип остаётся тем же, только формула расширяется. Вместо ",[45,6456,6458],{"className":6457},[48],[50,6459,6460],{"xmlns":52},[54,6461,6462,6476],{},[57,6463,6464,6466,6468,6470,6472,6474],{},[60,6465,102],{},[104,6467,131],{},[60,6469,134],{},[60,6471,137],{},[104,6473,140],{},[60,6475,143],{},[64,6477,146],{"encoding":66},"\nполучаем ",[45,6480,6482],{"className":6481},[48],[50,6483,6484],{"xmlns":52},[54,6485,6486,6544],{},[57,6487,6488,6494,6496,6502,6508,6510,6516,6522,6524,6526,6528,6534,6540,6542],{},[97,6489,6490,6492],{"accent":99},[60,6491,102],{},[104,6493,106],{"stretchy":99},[104,6495,131],{},[282,6497,6498,6500],{},[60,6499,134],{},[287,6501,289],{},[282,6503,6504,6506],{},[60,6505,137],{},[287,6507,289],{},[104,6509,140],{},[282,6511,6512,6514],{},[60,6513,134],{},[287,6515,299],{},[282,6517,6518,6520],{},[60,6519,137],{},[287,6521,299],{},[104,6523,140],{},[104,6525,511],{},[104,6527,140],{},[282,6529,6530,6532],{},[60,6531,134],{},[60,6533,460],{},[282,6535,6536,6538],{},[60,6537,137],{},[60,6539,460],{},[104,6541,140],{},[60,6543,143],{},[64,6545,6546],{"encoding":66},"\\widehat{y} = k_1 x_1 + k_2 x_2 + \\ldots + k_m x_m + b",", где\nкаждому признаку соответствует свой коэффициент. Для двух признаков\nмодель строит плоскость, для большего числа — гиперплоскость. Процесс\nобучения аналогичен: считаем производные по каждому коэффициенту,\nприравниваем к нулю и решаем полученную систему уравнений.",[6364,6549,6551,6556],{"value":6550},"item-6",[6368,6552,6553],{"v-slot:question":6370},[13,6554,6555],{},"Почему линейная регрессия применяется редко?",[6368,6557,6558],{"v-slot:answer":6370},[13,6559,6560],{},"Главное ограничение — модель может хорошо описывать только линейные\nзависимости. В реальных данных связь между признаками и результатом\nчасто нелинейная, и прямая линия (или плоскость) не сможет её\nулавливать. Поэтому линейную регрессию используют там, где зависимость\nдействительно близка к линейной, и всегда после предварительной\nпроверки данных. Зато в таких случаях она работает значительно быстрее\nболее сложных моделей.",[6364,6562,6564,6569],{"value":6563},"item-7",[6368,6565,6566],{"v-slot:question":6370},[13,6567,6568],{},"Что такое вектор входных данных?",[6368,6570,6571],{"v-slot:answer":6370},[13,6572,6573,6574,6604,6605,6623,6624,6642],{},"Вектор — это просто упорядоченный набор чисел. Например, если мы\nопределяем вес человека по росту и обхвату талии, входные данные\nсостоят из двух чисел: ",[45,6575,6577],{"className":6576},[48],[50,6578,6579],{"xmlns":52},[54,6580,6581,6601],{},[57,6582,6583,6585,6591,6593,6599],{},[104,6584,280],{"stretchy":1272},[282,6586,6587,6589],{},[60,6588,137],{},[287,6590,289],{},[104,6592,292],{"separator":99},[282,6594,6595,6597],{},[60,6596,137],{},[287,6598,299],{},[104,6600,302],{"stretchy":1272},[64,6602,6603],{"encoding":66},"[x_1, x_2]",", где ",[45,6606,6608],{"className":6607},[48],[50,6609,6610],{"xmlns":52},[54,6611,6612,6620],{},[57,6613,6614],{},[282,6615,6616,6618],{},[60,6617,137],{},[287,6619,289],{},[64,6621,6622],{"encoding":66},"x_1"," — рост, а ",[45,6625,6627],{"className":6626},[48],[50,6628,6629],{"xmlns":52},[54,6630,6631,6639],{},[57,6632,6633],{},[282,6634,6635,6637],{},[60,6636,137],{},[287,6638,299],{},[64,6640,6641],{"encoding":66},"x_2"," — обхват\nталии. Это и есть вектор из двух элементов. Чем больше признаков мы\nиспользуем, тем больше элементов в векторе и тем больше коэффициентов\nнужно найти при обучении.",[6364,6644,6646,6665],{"value":6645},"item-8",[6368,6647,6648],{"v-slot:question":6370},[13,6649,6650,6651,6664],{},"Зачем нужна переменная ",[45,6652,6654],{"className":6653},[48],[50,6655,6656],{"xmlns":52},[54,6657,6658,6662],{},[57,6659,6660],{},[60,6661,143],{},[64,6663,143],{"encoding":66}," (свободный коэффициент)?",[6368,6666,6667],{"v-slot:answer":6370},[13,6668,6669,6670,6683,6684,6708,6709,6731,6732,6745],{},"Без ",[45,6671,6673],{"className":6672},[48],[50,6674,6675],{"xmlns":52},[54,6676,6677,6681],{},[57,6678,6679],{},[60,6680,143],{},[64,6682,143],{"encoding":66}," формула выглядела бы как ",[45,6685,6687],{"className":6686},[48],[50,6688,6689],{"xmlns":52},[54,6690,6691,6705],{},[57,6692,6693,6699,6701,6703],{},[97,6694,6695,6697],{"accent":99},[60,6696,102],{},[104,6698,106],{"stretchy":99},[104,6700,131],{},[60,6702,134],{},[60,6704,137],{},[64,6706,6707],{"encoding":66},"\\widehat{y} = kx",", то есть прямая\nобязательно проходила бы через начало координат. Это сильно ограничивает\nмодель — далеко не все зависимости проходят через точку ",[45,6710,6712],{"className":6711},[48],[50,6713,6714],{"xmlns":52},[54,6715,6716,6728],{},[57,6717,6718,6720,6722,6724,6726],{},[104,6719,808],{"stretchy":1272},[287,6721,785],{},[104,6723,292],{"separator":99},[287,6725,785],{},[104,6727,821],{"stretchy":1272},[64,6729,6730],{"encoding":66},"(0, 0)",".\nКоэффициент ",[45,6733,6735],{"className":6734},[48],[50,6736,6737],{"xmlns":52},[54,6738,6739,6743],{},[57,6740,6741],{},[60,6742,143],{},[64,6744,143],{"encoding":66}," позволяет сдвигать прямую вверх или вниз, делая модель\nгораздо более гибкой и точной.",{"title":6370,"searchDepth":6747,"depth":6747,"links":6748},2,[6749,6750,6751,6752,6753,6754,6755],{"id":39,"depth":6747,"text":40},{"id":626,"depth":6747,"text":627},{"id":1086,"depth":6747,"text":1087},{"id":3790,"depth":6747,"text":3791},{"id":4347,"depth":6747,"text":4348},{"id":4628,"depth":6747,"text":4629},{"id":4684,"depth":6747,"text":4685},"mdx",{"readTime":6758,"image":6759,"date":6760,"tags":6761,"authors":6764},"15 минут","/img/blog/ml-basic-2/preview.png","2026-04-20",[6762,6763],"Искусственный интеллект","Машинное обучение",[6765],"vgorash",true,{"title":6768,"description":6769},"Линейная регрессия — проще некуда","В этой статье мы рассмотрим один из самых простых алгоритмов машинного обучения, а именно — линейную регрессию.","ru/blog/ml-basic-2","k9XlncBsQCecKfY-ghnQ9bOdO5E13RhP2EkirvkGnO8",1777111204262]