🔍
Variance of differences of random variables | Probability and Statistics | Khan Academy - YouTube
Channel: Khan Academy
[0]
В този клип искам
да представя някои методи
[3]
за работа със суми и разлики
[7]
на случайни променливи.
[8]
Нека кажем, че имаме две
случайни променливи X и Y,
[13]
и те са напълно независими.
[15]
Те са независими
случайни променливи.
[24]
И тук ще отида отвъд
обичайния начин за записване.
[27]
Ако искаме да знаем очакваното...
или ако разглеждаме
[30]
очакваната стойност на тази
случайна променлива X,
[34]
това е същото нещо като
средната стойност на
[39]
тази случайна променлива X.
[41]
Ако говорим за очакваната
стойност на Y,
[47]
тя е равна на средната стойност на Y.
[53]
Ако говорим за дисперсията на
случайната променлива X,
[56]
Забележка: Сал записва дисперсията като Var(X),
а на български е прието да се изписва като D(X)
[60]
тя е равна на очакваната стойност
от квадратите на отклоненията
[65]
на нашата случайна променлива X
и нейната средна стойност.
[71]
И това е на квадрат.
[73]
Очакваната стойност на тези
отклонения на квадрат.
[79]
Тук можем да използваме също
означението сигма на квадрат
[84]
за случайната променлива X.
[85]
Това е преговор на неща,
които вече знаем,
[87]
но искам само да ги въведа повторно,
защото ще използвам това при
[90]
изграждането на
някои от нашите методи.
[92]
Правим същото нещо
за случайната променлива у.
[95]
Дисперсията на случайната
променлива у е очакваната стойност
[100]
на разликата на стойността
на нашата случайна променлива Y
[105]
и средната стойност на Y,
[110]
или очакваната стойност на Y,
това е на квадрат.
[113]
А това е равно на
сигма на квадрат от Y.
[119]
Това е дисперсията на Y.
[121]
Сега може да знаеш, а може и още
да не знаеш тези свойства
[125]
на очакваните стойности и дисперсията, но
[127]
ще ти ги представя пак.
[128]
Няма да се впускам в някакво
подробно доказателство, всъщност
[130]
мисля, че такива доказатеслтва
сравнително лесно се възприемат.
[132]
Едно такова е, ако имам някаква
трета случайна променлива,
[137]
да кажем имам някаква трета
случайна променлива, която е
[139]
дефинирана като случайната
променлива X плюс
[142]
случайната променлива Y.
[143]
Нека останат цветовете, за да
[145]
стане всичко ясно.
[147]
Случайната променлива X плюс
случайната променлива Y.
[153]
Каква ще бъде очакваната
стойност на Z?
[156]
Очакваната стойност на Z
ще е равна на
[160]
очакваната стойност от X плюс Y.
[164]
А това е свойство на
очакваните стойности –
[166]
няма да го доказваме строго тук, но
[168]
очакваната стойност на X плюс очакваната
стойност на Y... или друг начин
[174]
да разгледаме това е:
средната стойност на Z е равна
[178]
на средната стойност на X
плюс средната стойност на Y.
[184]
Друг начин да разгледаме това е: ако
искаме да вземем... да кажем, че
[188]
имам някаква друга
случайна променлива.
[190]
Свършват ми буквите.
[191]
Да кажем, че имам случайната
променлива А, и аз определям
[194]
случайната променлива А
да е равна на Х минус Y.
[198]
Каква ще е нейната очаквана стойност?
[201]
Очакваната стойност на А ще е равна на
[204]
очакваната стойност на Х минус Y,
което е равно на... можем или да го
[209]
разглеждаме като очакваната стойност
на Х плюс очакваната
[212]
стойност на минус Y, или
очакваната стойност на Х минус
[218]
очакваната стойност на Y, което
е равно на средната стойност
[224]
на Х минус средната стойност на Y.
[227]
Така че на това ще е равна
[231]
нашата случайна променлива А.
[234]
Всичко това е преговор
и ще го използваме, когато
[236]
започнем да говорим за разпределения,
които представляват суми
[239]
и разлики от други разпределения.
[241]
Сега нека помислим каква е дисперсията
на случайната променлива Z
[245]
и каква е дисперсията на
случайната променлива А.
[249]
И така, дисперсията на Z...
винаги трябва да търсим логиката,
[258]
а това е логично.
[260]
Ако Х е напълно независима от Y,
и ако имам някаква случайна променлива,
[264]
която представлява сумата от двете,
тогава очакваната
[267]
стойност на тази променлива,
тази нова променлива ще е равна
[272]
на сумата от очакваните
стойности на другите две,
[275]
защото те не са свързани.
[277]
Ако моята очаквана стойност тук е 5,
а на това другото място
[281]
е 7, напълно разумно е очакваната
ми стойност тук да е 12,
[286]
ако приемем, че те
са напълно независими.
[288]
Ако имаме една такава ситуация,
каква е дисперсията на моята
[294]
случайна променлива Z?
[296]
И пак да кажа, че тук няма да правя
строго доказателство, това си е
[298]
всъщност едно свойство на
дисперсията.
[301]
Но аз ще използвам това, за да
разбера каква е дисперсията на
[303]
нашата случайна променлива А.
[306]
Ако квадратът на това отклонение
е някаква дисперсия,
[311]
и това е напълно независимо,
квадратът на това отклонение
[314]
е някакво разстояние, тогава дисперсията
[317]
на техния сбор всъщност
ще представлява сумата от дисперсиите.
[321]
И това ще е равно на дисперсията
[329]
на случайната променлива Х
плюс дисперсията
[333]
на случайната променлива Y.
[336]
Или друг начин, по който да помислим
за това, е, че дисперсията на Z,
[342]
е равна на дисперсията на (Х + Y),
[352]
е равна на дисперсията на Х
плюс дисперсията на
[362]
случайната променлива Y.
[364]
Надявам се, че това има смисъл.
[365]
Няма да ти го доказвам подробно.
[366]
А и ще видиш тези неща
в много статистически книги.
[369]
Сега това, което искам да ти покажа, е че
дисперсията на случайната
[372]
променлива А всъщност
ще е точно това нещо.
[375]
И това е интересното, защото
може би си казваш:
[377]
"Хей, а защо това да не е разликата?"
[378]
Имахме разликите тук.
[380]
Та нека поекспериментираме
малко с това.
[382]
Дисперсията... само ще напиша
това – Дисперсията
[388]
на случайната променлива а е равна
на дисперсията на...
[392]
ще напиша това така – като
Х – Y, което е равно на...
[399]
можем да го разглеждаме така –
което е равно на дисперсията
[405]
на Х плюс (–Y).
[410]
Това са равносилни твърдения.
[413]
И това можем да го разглеждаме като
равно на... само използваме
[416]
това тук, сумата от
тези две дисперсии
[419]
ще е равна на сумата
от дисперсията на Х
[423]
плюс дисперсията на (–Y).
[428]
Сега това, което е нужно да ти покажа,
е че дисперсията на (–Y),
[431]
отрицателното на тази
случайна променлива,
[433]
е точно равна
на дисперсията на Y.
[435]
Та каква е дисперсията на (–Y)?
[438]
Дисперсията на (–Y)
е точно равна на дисперсията
[443]
на (–Y), която е равна
на очакваната стойност на
[452]
разстоянието между –Y
и очакваната стойност
[462]
на –Y, повдигнато на квадрат.
[465]
Всъщност точно това
представлява дисперсията.
[470]
Каква е очакваната стойност
на –Y тук?
[476]
Всъщност, по-добре нека изнеса
пред скоби –1.
[479]
Какво имаме в кръглите скоби тук,
това е точно
[481]
равно на минус 1 на квадрат,
умножено по Y плюс
[487]
очакваната стойност на –Y.
[491]
Т.е. това е абсолютно същото
[493]
в кръглите скоби, на квадрат.
[494]
И всичко, което е в лилаво,
всичко в лилаво тук
[497]
представлява очакваната
[499]
стойност на това нещо.
[502]
Каква е очакваната
стойност на –Y?
[506]
Очакваната стойност на (–Y)...
ще я покажа тук –
[510]
очакваната стойност на отрицателната
случайна променлива е равна
[513]
на отрицателното на очакваната стойност
на тази случайна променлива.
[517]
Така че, ако погледнем това,
тук можем да препишем –
[520]
ще направя малко повече място –
можем да препишем това
[522]
като очакваната стойност –
дисперсията на (–Y) е
[526]
очакваната стойност –
която си е 1.
[527]
Минус 1 на квадрат си е само 1.
[529]
А тук имаме у, и
вместо да пишем плюс
[534]
очакваната стойност на (–Y),
това ще е точно равно на минус
[537]
очакваната стойност на Y.
[540]
Така че имаме това, и след това
всичко това на квадрат.
[543]
И забележи, това е точно
същото нещо по определение като
[550]
дисперсията на у.
[553]
И това, което току що показахме,
това е
[555]
дисперсията на Y.
[555]
Така че показахме, че
дисперсията на разликата
[562]
на две независими случайни
променливи е равна на сумата
[567]
от дисперсиите на променливите.
[570]
Това определено е вярно,
имаме равенство със сумата от
[573]
дисперсията на първото
и дисперсията на
[577]
отрицателната стойност на второто.
[578]
И всъщност показахме, че дисперсията
е точно равна на
[581]
дисперсията на положителната
версия на тази променлива,
[583]
което е логично.
[584]
Нашето отклонение от средната
стойност ще бъде...
[587]
няма значение дали вземаме
положителния или отрицателния
[589]
вариант на променливата.
[590]
Интересува ни само
абсолютното разстояние.
[591]
Така че е напълно логично
тази стойност и тази стойност
[595]
да са равни помежду си.
[596]
И причината да направим
това упражнение,
[599]
един вид важните изводи тук,
са свързани с това, че
[603]
средната стойност на отклоненията тук –
мога да препиша това
[608]
като средната стойност на отклоненията
на случайната променлива,
[612]
е равна на отклоненията
на средните им стойности.
[614]
И тогава другият важен извод,
който ще използваме
[616]
в следващите няколко
клипа, е това, че дисперсията
[620]
на разликата... ако определя
една нова случайна променлива
[624]
като разликата на две случайни
променливи,
[627]
дисперсията на тази случайна
променлива всъщност е
[629]
сборът от дисперсиите на двете
случайни променливи.
[631]
Така че това са двата важни извода,
които ще използваме
[635]
и ще надградим по-нататък.
[637]
Както и да е, надявам се, че
това не е било твърде объркващо.
[639]
Ако е било объркващо, можеш
да приемеш всичко като основни
[642]
факти и да приемеш тези формули
[644]
като подходящи за използване.
Most Recent Videos:
You can go back to the homepage right here: Homepage





