🔍
Introduction to residuals and least squares regression - YouTube
Channel: Khan Academy
[0]
Интересувам се от намирането на
[2]
връзката между ръста на хората в инчове
[5]
и теглото им в паунди.
[8]
Напосоки правя извадка с няколко души,
[10]
като измервам ръста и теглото им
[12]
и за всеки човек поставям точка,
[14]
която представлява комбинацията от ръста и теглото му.
[17]
Да кажем, че измеря някого,
[19]
който е 60 инча висок, това
ще е над пет стъпки височина
[22]
и тежи 100 паунда.
[24]
Отивам до 60 инча
и после до 100 паунда.
[28]
Тази точка ето тук е точката (60; 100).
[38]
Можем да си представим,
[39]
че измерваме по оста Ох или я поставяме на оста Ох,
[44]
а после измерваме и по оста Оу.
[47]
Тази точка за този човек е (60; 100)
[51]
и представлява 60 инча, 100 паунда.
[53]
Направих това за един, двама, трима, четирима,
[56]
петима, шест, седем, осем, девет души и мога да продължа,
[59]
но дори и с това мога да кажа,
[61]
че вероятно тук има линейна връзка.
[65]
Изглежда е положителна, понеже
[68]
докато нараства височината,
нараства и теглото.
[70]
Може би мога да опитам да
начертая права, която може
[74]
приблизително да изглади тези данни.
[76]
Нека опитам да направя това с линийката си.
[79]
Мога да се сетя за няколко прави.
[81]
При нещо такова изглежда (чертае)
[83]
повечето от данните са под правата,
[86]
така че това не изглежда правилно.
[89]
Мога да направя нещо като това (чертае),
[93]
но и то не изглежда добро попадение.
[95]
Повечето от данните са над правата.
[98]
Отново, просто преценявам на око,
[100]
след време ще научиш
по-добри методи за намиране
[103]
на по-добре изглаждащи прави.
[106]
Но тя е нещо като това и
просто я преценявам на око,
[109]
но изглежда правилна (чертае синя права)
[111]
Можеш да разглеждаш тази права
като регресионна права.
[116]
Можем да гледаме на това
като на у = mx + b.
[119]
При което трябва да намерим
наклона (ъгловия коефициент m)
[121]
и пресечната точка (b) с оста Y
и можем да го направим
[123]
въз основа на това, което току-що
начертах, или можем дори да си го
[127]
представим като тегло.
[128]
Теглото е равно на нашия наклон по височината
[133]
плюс ординатата
на пресечната точка с оста У,
[137]
ако си представяш вертикалната
ос като оста на теглото,
[140]
можеш да си представиш това
като пресечна точка с теглото.
[142]
Но и по двата начина,
това е моделът, който
[144]
правя на око, това е
моята линия на регресия.
[148]
Нещо, с което опитвам
да изгладя тези точки.
[150]
Очевидно, една права не може
да мине през всички тези точки.
[154]
За всяка точка ще има някаква разлика,
[158]
не за всички, но за много от тях,
[160]
ще има някаква разлика между
реалната точка и тази, която
[163]
би била прогнозирана от правата.
[165]
Разликата между реалните четири точки
[169]
и това, което би било прогнозирано
при дадена височина например,
[171]
това се нарича остатъчна стойност.
[174]
Трябва да запиша това.
[176]
Остатъчна стойност R (от residual)
за всяка от тези точки информация.
[180]
Например, ако нарека това точка едно,
[184]
остатъчната стойност за точка едно r1 е...
[186]
Тя ще е за нашата променлива,
[190]
височината, равна на 60 инча.
[193]
Реалното тегло тук е 100 паунда.
[196]
От него ще извадим теглото,
което бихме прогнозирали.
[202]
Прогнозното тегло би било...
[206]
Мога просто да заместя
60 в това уравнение,
[210]
така че това ще е m по 60 плюс b.
[213]
Мога да го запиша,
[215]
може би, по този начин – 60 m плюс b.
[219]
Отново, просто взимам 60-те паунда
[220]
и ги слагам в моя модел тук и казвам
[223]
какво тегло би било прогнозирало това.
[224]
Дори мога, просто, за да имам число тук...
[228]
Мога да...нека извадя линийката си.
[233]
Да опитам да получа права линия от тази точка.
[237]
Нека начертая права линия от тази точка.
[243]
Това не изглежда много право, но е добре.
[245]
Изглежда е около 150 паунда.
[252]
Моят модел би предсказал 150 паунда.
[255]
Остатъчната стойност тук
ще е равна на –50.
[261]
Остатъчната стойност е
отрицателна, ако реалната
[263]
стойност е под предсказаната.
[266]
Това ето тук.
[267]
Това е нашето едно, то е с
отрицателна остатъчна стойност.
[270]
Да кажем, че опитваш да намериш,
[273]
тази остатъчна стойност тук, за тази точка.
[276]
Това r2 ще е положителна остатъчна стойност,
[281]
понеже реалната стойност е по-голяма,
[284]
отколкото тази, която е прогнозирана.
[289]
Остатъчната стойност е
добър начин да се каже
[291]
колко добре правата, регресията,
[294]
моделът, съответства на дадена точка информация
[297]
или как дадена точка информация
се сравнява с модела.
[299]
Вероятно искаш да помислиш за някаква
[303]
комбинация от всички остатъчни стойности
[305]
и да опиташ да я минимизираш.
[307]
Можеш да се запиташ:
"Защо не събера всички
[310]
остатъчни стойности и се
опитам да ги минимизирам."
[311]
Но това става сложно,
понеже някои са положителни,
[314]
а някои са отрицателни, така че една
голяма отрицателна остатъчна стойност
[318]
може да е в противовес на голяма
положителна остатъчна стойност
[321]
и това би дало сбор, равен на нула,
[323]
а после да изглежда,
че няма остатъчна стойност,
[324]
така че просто можеш
да събереш абсолютните стойности.
[327]
Можеш да си кажеш: "Нека взема сбора
[329]
на всички остатъчни стойности,
на абсолютните стойности
[333]
на всички остатъчни стойности.
[334]
И после... нека променя m и b за моята права,
[339]
за да минимизирам това."
Това би било една техника
[342]
да опиташ да създадеш регресионна права.
[346]
Друг начин да го направиш,
и това всъщност
[347]
е най-типичният начин,
който ще видиш в статистиката,
[350]
е да се вземе сборът от квадратите
на остатъчните стойности.
[355]
Сборът от квадратите.
[356]
Когато повдигнеш нещо на
квадрат, без значение
[359]
дали е отрицателно или положително,
[360]
то ще стане положително,
така че се справяш с проблема
[363]
с отрицателни и положителни
числа, които се се неутрализират.
[366]
Когато повдигнеш едно число на
квадрат, нещата с по-големи остатъчни
[369]
стойности ще станат още по-големи,
относително казано.
[372]
Ако повдигнеш на квадрат
едно голямо число е едно...
[375]
Ако мислиш по този начин, да
използваме нормални числа,
[378]
едно, две, три, четири.
[380]
Всички те са отдалечени едно от друго с едно,
[381]
но ако ги повдигнеш на квадрат
– едно, четири, девет, 16 –
[385]
те се отдалечават все повече и повече.
[387]
Затова, колкото по-голяма е
остатъчната стойност,
[389]
когато я повдигнеш на квадрат,
тя ще представлява по-голяма част
[392]
от сбора на квадратите.
[396]
В бъдещи видеа ще видим,
[398]
че има техника, наречена
[399]
метод на най-малките квадрати.
[406]
Метод на най-малките квадрати.
[409]
При който можеш да намериш m и b
за даден набор данни,
[414]
така че да се минимизира сбора
от квадратите на остатъчните стойности.
[419]
Това е ценно и се използва най-много,
[422]
защото се опитва да вземе предвид
[424]
големите разлики в стойностите.
[426]
Нещата, които стоят доста далеч от модела,
[429]
нещо като това,
[431]
с модел на най-малките квадрати
[433]
ще бъде минимизирано,
[435]
или ще бъде претеглено малко по-тежко,
[437]
понеже, когато го повдигнеш на квадрат, то става
[438]
още по-голям фактор в сумата.
[440]
Но това е просто концептуално въведение.
[443]
В бъдещи видеа ще пресмятаме остатъчни стойности.
[446]
Ще извлечем формулата
[447]
за намирането на m и b за права,
[451]
така че да се минимизира сборът от квадратите
[455]
от остатъчните стойности.
Most Recent Videos:
You can go back to the homepage right here: Homepage





