Variance of differences of random variables | Probability and Statistics | Khan Academy - YouTube

Channel: Khan Academy

[0]
В този клип искам да представя някои методи
[3]
за работа със суми и разлики
[7]
на случайни променливи.
[8]
Нека кажем, че имаме две случайни променливи X и Y,
[13]
и те са напълно независими.
[15]
Те са независими случайни променливи.
[24]
И тук ще отида отвъд обичайния начин за записване.
[27]
Ако искаме да знаем очакваното... или ако разглеждаме
[30]
очакваната стойност на тази случайна променлива X,
[34]
това е същото нещо като средната стойност на
[39]
тази случайна променлива X.
[41]
Ако говорим за очакваната стойност на Y,
[47]
тя е равна на средната стойност на Y.
[53]
Ако говорим за дисперсията на случайната променлива X,
[56]
Забележка: Сал записва дисперсията като Var(X), а на български е прието да се изписва като D(X)
[60]
тя е равна на очакваната стойност от квадратите на отклоненията
[65]
на нашата случайна променлива X и нейната средна стойност.
[71]
И това е на квадрат.
[73]
Очакваната стойност на тези отклонения на квадрат.
[79]
Тук можем да използваме също означението сигма на квадрат
[84]
за случайната променлива X.
[85]
Това е преговор на неща, които вече знаем,
[87]
но искам само да ги въведа повторно, защото ще използвам това при
[90]
изграждането на някои от нашите методи.
[92]
Правим същото нещо за случайната променлива у.
[95]
Дисперсията на случайната променлива у е очакваната стойност
[100]
на разликата на стойността на нашата случайна променлива Y
[105]
и средната стойност на Y,
[110]
или очакваната стойност на Y, това е на квадрат.
[113]
А това е равно на сигма на квадрат от Y.
[119]
Това е дисперсията на Y.
[121]
Сега може да знаеш, а може и още да не знаеш тези свойства
[125]
на очакваните стойности и дисперсията, но
[127]
ще ти ги представя пак.
[128]
Няма да се впускам в някакво подробно доказателство, всъщност
[130]
мисля, че такива доказатеслтва сравнително лесно се възприемат.
[132]
Едно такова е, ако имам някаква трета случайна променлива,
[137]
да кажем имам някаква трета случайна променлива, която е
[139]
дефинирана като случайната променлива X плюс
[142]
случайната променлива Y.
[143]
Нека останат цветовете, за да
[145]
стане всичко ясно.
[147]
Случайната променлива X плюс случайната променлива Y.
[153]
Каква ще бъде очакваната стойност на Z?
[156]
Очакваната стойност на Z ще е равна на
[160]
очакваната стойност от X плюс Y.
[164]
А това е свойство на очакваните стойности –
[166]
няма да го доказваме строго тук, но
[168]
очакваната стойност на X плюс очакваната стойност на Y... или друг начин
[174]
да разгледаме това е: средната стойност на Z е равна
[178]
на средната стойност на X плюс средната стойност на Y.
[184]
Друг начин да разгледаме това е: ако искаме да вземем... да кажем, че
[188]
имам някаква друга случайна променлива.
[190]
Свършват ми буквите.
[191]
Да кажем, че имам случайната променлива А, и аз определям
[194]
случайната променлива А да е равна на Х минус Y.
[198]
Каква ще е нейната очаквана стойност?
[201]
Очакваната стойност на А ще е равна на
[204]
очакваната стойност на Х минус Y, което е равно на... можем или да го
[209]
разглеждаме като очакваната стойност на Х плюс очакваната
[212]
стойност на минус Y, или очакваната стойност на Х минус
[218]
очакваната стойност на Y, което е равно на средната стойност
[224]
на Х минус средната стойност на Y.
[227]
Така че на това ще е равна
[231]
нашата случайна променлива А.
[234]
Всичко това е преговор и ще го използваме, когато
[236]
започнем да говорим за разпределения, които представляват суми
[239]
и разлики от други разпределения.
[241]
Сега нека помислим каква е дисперсията на случайната променлива Z
[245]
и каква е дисперсията на случайната променлива А.
[249]
И така, дисперсията на Z... винаги трябва да търсим логиката,
[258]
а това е логично.
[260]
Ако Х е напълно независима от Y, и ако имам някаква случайна променлива,
[264]
която представлява сумата от двете, тогава очакваната
[267]
стойност на тази променлива, тази нова променлива ще е равна
[272]
на сумата от очакваните стойности на другите две,
[275]
защото те не са свързани.
[277]
Ако моята очаквана стойност тук е 5, а на това другото място
[281]
е 7, напълно разумно е очакваната ми стойност тук да е 12,
[286]
ако приемем, че те са напълно независими.
[288]
Ако имаме една такава ситуация, каква е дисперсията на моята
[294]
случайна променлива Z?
[296]
И пак да кажа, че тук няма да правя строго доказателство, това си е
[298]
всъщност едно свойство на дисперсията.
[301]
Но аз ще използвам това, за да разбера каква е дисперсията на
[303]
нашата случайна променлива А.
[306]
Ако квадратът на това отклонение е някаква дисперсия,
[311]
и това е напълно независимо, квадратът на това отклонение
[314]
е някакво разстояние, тогава дисперсията
[317]
на техния сбор всъщност ще представлява сумата от дисперсиите.
[321]
И това ще е равно на дисперсията
[329]
на случайната променлива Х плюс дисперсията
[333]
на случайната променлива Y.
[336]
Или друг начин, по който да помислим за това, е, че дисперсията на Z,
[342]
е равна на дисперсията на (Х + Y),
[352]
е равна на дисперсията на Х плюс дисперсията на
[362]
случайната променлива Y.
[364]
Надявам се, че това има смисъл.
[365]
Няма да ти го доказвам подробно.
[366]
А и ще видиш тези неща в много статистически книги.
[369]
Сега това, което искам да ти покажа, е че дисперсията на случайната
[372]
променлива А всъщност ще е точно това нещо.
[375]
И това е интересното, защото може би си казваш:
[377]
"Хей, а защо това да не е разликата?"
[378]
Имахме разликите тук.
[380]
Та нека поекспериментираме малко с това.
[382]
Дисперсията... само ще напиша това – Дисперсията
[388]
на случайната променлива а е равна на дисперсията на...
[392]
ще напиша това така – като Х – Y, което е равно на...
[399]
можем да го разглеждаме така – което е равно на дисперсията
[405]
на Х плюс (–Y).
[410]
Това са равносилни твърдения.
[413]
И това можем да го разглеждаме като равно на... само използваме
[416]
това тук, сумата от тези две дисперсии
[419]
ще е равна на сумата от дисперсията на Х
[423]
плюс дисперсията на (–Y).
[428]
Сега това, което е нужно да ти покажа, е че дисперсията на (–Y),
[431]
отрицателното на тази случайна променлива,
[433]
е точно равна на дисперсията на Y.
[435]
Та каква е дисперсията на (–Y)?
[438]
Дисперсията на (–Y) е точно равна на дисперсията
[443]
на (–Y), която е равна на очакваната стойност на
[452]
разстоянието между –Y и очакваната стойност
[462]
на –Y, повдигнато на квадрат.
[465]
Всъщност точно това представлява дисперсията.
[470]
Каква е очакваната стойност на –Y тук?
[476]
Всъщност, по-добре нека изнеса пред скоби –1.
[479]
Какво имаме в кръглите скоби тук, това е точно
[481]
равно на минус 1 на квадрат, умножено по Y плюс
[487]
очакваната стойност на –Y.
[491]
Т.е. това е абсолютно същото
[493]
в кръглите скоби, на квадрат.
[494]
И всичко, което е в лилаво, всичко в лилаво тук
[497]
представлява очакваната
[499]
стойност на това нещо.
[502]
Каква е очакваната стойност на –Y?
[506]
Очакваната стойност на (–Y)... ще я покажа тук –
[510]
очакваната стойност на отрицателната случайна променлива е равна
[513]
на отрицателното на очакваната стойност на тази случайна променлива.
[517]
Така че, ако погледнем това, тук можем да препишем –
[520]
ще направя малко повече място – можем да препишем това
[522]
като очакваната стойност – дисперсията на (–Y) е
[526]
очакваната стойност – която си е 1.
[527]
Минус 1 на квадрат си е само 1.
[529]
А тук имаме у, и вместо да пишем плюс
[534]
очакваната стойност на (–Y), това ще е точно равно на минус
[537]
очакваната стойност на Y.
[540]
Така че имаме това, и след това всичко това на квадрат.
[543]
И забележи, това е точно същото нещо по определение като
[550]
дисперсията на у.
[553]
И това, което току що показахме, това е
[555]
дисперсията на Y.
[555]
Така че показахме, че дисперсията на разликата
[562]
на две независими случайни променливи е равна на сумата
[567]
от дисперсиите на променливите.
[570]
Това определено е вярно, имаме равенство със сумата от
[573]
дисперсията на първото и дисперсията на
[577]
отрицателната стойност на второто.
[578]
И всъщност показахме, че дисперсията е точно равна на
[581]
дисперсията на положителната версия на тази променлива,
[583]
което е логично.
[584]
Нашето отклонение от средната стойност ще бъде...
[587]
няма значение дали вземаме положителния или отрицателния
[589]
вариант на променливата.
[590]
Интересува ни само абсолютното разстояние.
[591]
Така че е напълно логично тази стойност и тази стойност
[595]
да са равни помежду си.
[596]
И причината да направим това упражнение,
[599]
един вид важните изводи тук, са свързани с това, че
[603]
средната стойност на отклоненията тук – мога да препиша това
[608]
като средната стойност на отклоненията на случайната променлива,
[612]
е равна на отклоненията на средните им стойности.
[614]
И тогава другият важен извод, който ще използваме
[616]
в следващите няколко клипа, е това, че дисперсията
[620]
на разликата... ако определя една нова случайна променлива
[624]
като разликата на две случайни променливи,
[627]
дисперсията на тази случайна променлива всъщност е
[629]
сборът от дисперсиите на двете случайни променливи.
[631]
Така че това са двата важни извода, които ще използваме
[635]
и ще надградим по-нататък.
[637]
Както и да е, надявам се, че това не е било твърде объркващо.
[639]
Ако е било объркващо, можеш да приемеш всичко като основни
[642]
факти и да приемеш тези формули
[644]
като подходящи за използване.