Тэорыя хаосу: у чым розніца паміж хаатычным і выпадковым паводзінамі?


адказ 1:

Кароткая гісторыя наступная. Выпадковае паводзіны не з'яўляецца дэтэрмінаваным: нават калі вы ведалі ўсё, што было вядома пра сістэму ў пэўны момант часу, вы не можаце прадказаць стан у наступны момант часу. Хаатычнае паводзіны, з іншага боку, цалкам дэтэрмінаваны, калі дакладна ведаць пачатковы стан, але кожная невялікая недакладнасць у зыходным стане з часам хутка (экспанентна) павялічваецца.

Выпадковыя сістэмы

Пераклад манеты альбо латарэі - прыклады выпадковых сістэм [*]. Вы можаце кідаць манету мільён разоў, ведаючы вынік кожны раз, але гэта зусім не дапаможа вам прадказаць вынік наступнага кідка. Акрамя таго, вы можаце ведаць усю гісторыю лічбаў, якія выйгралі ў латарэі, але гэта не дапаможа вам выйграць у латарэі. (Калі гэта гучыць дзіўна, прачытайце памылку Аматара.)

[*] Я маю на ўвазе ідэалізаваныя сістэмы, у якіх выяўляецца выпадковасць.

Itsimportanttopointout,however,thatrandomsystemsarenotnecessarilycompletelyunpredictable.Take,forexample,aGaussianrandomwalk,inwhichaparticlespositionisupdatedateverytimestepbyasmalldisplacementinarandomdirection,withmagnitudedrawnfromaGaussiandistributionwithstandarddeviationσ.Whileitsimpossibletoexactlypredictwheretheparticlewillbeafter[math]n[/math]steps,itispossibletoshowthat,withhighprobability,itwontbemuchfartherthan[math]σn[/math].If[math]σ[/math]issmall,thismightmeanthatyouactuallycanpredictwheretheparticlewillbewithhighaccuracy,despitetherandomnessofthesystem.It's important to point out, however, that random systems are not necessarily completely unpredictable. Take, for example, a Gaussian random walk, in which a particle's position is updated at every time step by a small displacement in a random direction, with magnitude drawn from a Gaussian distribution with standard deviation \sigma. While it's impossible to exactly predict where the particle will be after [math]n[/math] steps, it is possible to show that, with high probability, it won't be much farther than [math]\sigma \sqrt n[/math]. If [math]\sigma[/math] is small, this might mean that you actually can predict where the particle will be with high accuracy, despite the randomness of the system.

Каб зрабіць гэта больш інтуітыўным, уявіце сабе спробы знайсці п'яніцу. Ён выйшаў з бара апоўначы, і вы шукаеце яго праз гадзіну. Так як ён п'яны, ён бяжыць бязмэтна, і вы не можаце дакладна ведаць, дзе ён знаходзіцца. Аднак, калі вы ведаеце, што ён ідзе з хуткасцю адзін крок у секунду і мяркуеце, што кожны крок выконваецца ў новым, цалкам выпадковым кірунку, вы ведаеце, што праз гадзіну ён не можа быць нашмат далейшы за 60 крокаў (можа, сто футаў) адтуль, дзе ён пайшоў.

Хаатычныя сістэмы

Oneoftheusualexamplesofchaoticbehavioristhelogisticmap.Thestateofasystemisrepresentedbyanumberxwhichevolvesindiscretetimesteps.Ateachstep,thestateischangedaccordingto[math]xn+1=rxn(1xn).[/math]Forsomevaluesof[math]r[/math],thebehaviorof[math]xn[/math]isrelativelysimple:forlarge[math]n[/math],[math]xn[/math]willoscillatebetweenafinitesetofvalues.However,formostvaluesof[math]r[/math]beyondabout3.57,thefinalbehaviorofthesystemisextremelydependentoninitialconditions.Thisbehaviorissummarizedinabifurcationdiagram,whichlookslikethisforthelogisticmap:One of the usual examples of chaotic behavior is the logistic map. The state of a system is represented by a number x which evolves in discrete time steps. At each step, the state is changed according to[math]x_{n+1} = r x_n (1-x_n)\,.[/math]For some values of [math]r[/math], the behavior of [math]x_n[/math] is relatively simple: for large [math]n[/math], [math]x_n[/math] will oscillate between a finite set of values. However, for most values of [math]r[/math] beyond about 3.57, the final behavior of the system is extremely dependent on initial conditions. This behavior is summarized in a bifurcation diagram, which looks like this for the logistic map:

(з Вікіпедыі)

Thisshowswherexmightendupafteralargenumberofstepsasafunctionof[math]r[/math].Asyoucansee,whileforsmall[math]r[/math],thereareonlyacoupleofasymptoticvaluesfor[math]x[/math],for[math]r[/math]around3.6andlarger,[math]x[/math]canbeallovertheplace.This shows where x might end up after a large number of steps as a function of [math]r[/math]. As you can see, while for small [math]r[/math], there are only a couple of asymptotic values for [math]x[/math], for [math]r[/math] around 3.6 and larger, [math]x[/math] can be all over the place.

Adifferentwaytolookatthisisthefollowing.Belowisaplotshowingthevaluesofxnfortwostartingvalues,[math]x0(1)=0.40[/math]and[math]x0(2)=0.41[/math],for[math]r=3.5[/math].Thevaluesforthefirstsequence(startingwith0.40)areplacedonthe[math]x[/math]axis,whilethevaluesforthesecondsequence(startingwith0.41)areplacedonthe[math]y[/math]axis.Theresapointforevery[math]n[/math].A different way to look at this is the following. Below is a plot showing the values of x_n for two starting values, [math]x_0^{(1)} = 0.40[/math] and [math]x_0^{(2)} = 0.41[/math], for [math]r = 3.5[/math]. The values for the first sequence (starting with 0.40) are placed on the [math]x[/math]-axis, while the values for the second sequence (starting with 0.41) are placed on the [math]y[/math]-axis. There's a point for every [math]n[/math].

Thewaytoreadthisplotisthefollowing.Ifforagivenn,thevaluesofthetwosequencesareequal,thenyouwillgetapointonthediagonal(representedwithadashedlineintheplot)the[math]x[/math]andthe[math]y[/math]coordinatesforthispointareequal.Ifthetwovaluesaresimilarbutnotequal,youllgetapointclosetothediagonalbutnotonit.Iftheyarecompletelydifferent,thepointwillbefarfromthediagonal.Asyoucansee,althoughthetwosequencesstartedfromdifferentinitialconditions,theybehavemoreandmorealikeasthenumberofstepsincreases:mostofthepointsontheplotareonorclosetothediagonal.(Note:Icoloredthepointswithalightershadeofredforsmall[math]n[/math]sothatthereddestpointsareforlatertimes)The way to read this plot is the following. If for a given n, the values of the two sequences are equal, then you will get a point on the diagonal (represented with a dashed line in the plot) -- the [math]x[/math] and the [math]y[/math] coordinates for this point are equal. If the two values are similar but not equal, you'll get a point close to the diagonal but not on it. If they are completely different, the point will be far from the diagonal. As you can see, although the two sequences started from different initial conditions, they behave more and more alike as the number of steps increases: most of the points on the plot are on or close to the diagonal. (Note: I colored the points with a lighter shade of red for small [math]n[/math] so that the reddest points are for later times)

Nowtakealookatwhathappenswhenr=3.7.Now take a look at what happens when r=3.7.

Святы Молі! Акуляры паўсюль! Гэта азначае, што хоць мы пачыналі з двух вельмі падобных стартавых умоў, дзве паслядоўнасці выглядаюць не аднолькава. Гэта брудна

Адрозніваюць хаос ад выпадковасці

Адменіць выпадковыя лікі ад выпадковых лікаў на самай справе нетрывіяльна. Дапусцім, я вам скажу наступнае - гэта выварот манеты (1 галава, 0 - лік): [1 1 1 1 1 1 1 1 1 1 1 1 1 1] (гэта чатырнаццаць). Ці выглядае гэта выпадкова для вас? Я ўпэўнены, што гэта не так. Аднак я выявіў менавіта гэтую паслядоўнасць два разы на дзесяць тысяч манет, якія былі згенераваны з дапамогай рэальнага генератара выпадковых выпадкаў (random.org). Тыя ж дзесяць тысяч кідкоў таксама ўтрымліваюць паслядоўнасць [1 0 1 0 1 0 1 0 1 0 0 0 0] двойчы і [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0] (васемнаццаць нулёў) адзін раз . Вядома, гэтыя выпадкі сустракаюцца рэдка (мяркуецца, што паслядоўнасць даўжыні 14 з'явіцца ў адзін з каля 16000 хадоў), але не дзіўна, што мы іх бачым тут, бо мы выкарыстоўвалі 10 000 узораў, каб знайсці іх . Сутнасць, аднак, заключаецца ў тым, што, калі хтосьці дае вам узоры з выпадковай паслядоўнасці, нічога пра сам узор не паведамляе, ці было паходжанне ўзору выпадковым працэсам.

Параўнайце паслядоўнасці, якія я паказаў вышэй: [1 1 0 1 1 0 0 1 1 0 1 1 0] Гэта выглядае больш выпадкова, ці не так? Ну, гэта было створана на маім кампутары з псеўдавыпадковым генератарам, а гэта азначае, што ён на самай справе дэтэрмінальна разлічваецца з дынамікі хаатычнай сістэмы! Гэта паказвае цяжкасць адрозніць "рэальную" выпадковасць ад таго, што вы атрымліваеце, калі проста не ведаеце дакладны стан сістэмы.

Непрадказальнасць

Важна не зблытаць выпадковасць з непрадказальнасцю. Выпадковае паводзіны не прадказальна ў больш вузкім сэнсе (вы не можаце зрабіць дасканалыя прагнозы), але яно можа быць прадказальна з высокай ступенню дакладнасці (як у выпадку выпадковых хадоў, пра якія я пісаў раней). І наадварот, непрадказальнасць можа быць абумоўлена выпадковасцю (напрыклад, немагчымасцю прадказаць дакладна, калі будзе адбывацца радыеактыўны распад), але ў большасці выпадкаў гэта проста з-за нашай няздольнасці вымераць і адсочваць пачатковы стан сістэмы дастаткова дакладна (як прагноз надвор'я альбо спрабую прадказаць, дзе кропля вады ўпадзе з хвалі, якая ляскае на бераг [гэта прыклад Фейнмана, на які я зараз не маю ніякай спасылкі]).


адказ 2:

Ёсць некалькі выдатных апісанняў тэорыі хаосу і выпадковасці, каб адказаць на гэтае пытанне. Магчыма, варта адзначыць, што канцэптуальная аснова тэорыі хаосу надзвычай каштоўная ў самых розных галінах. Гэта сферы, дзе стратэгі маюць патрэбу ў пэўным кантролі над складанай сітуацыяй, калі занадта шмат фактараў узаемадзеяння для прагназавання вынікаў.

Прырода - выдатны прыклад стратэга, які выкарыстоўвае канцэптуальныя рамкі тэорыі хаосу для стварэння аптымальна эфектыўных біялагічных сістэм. Ключавым да значнага прымянення тэорыі хаосу з'яўляецца разуменне таго, што гэта дынамічныя сістэмы, якія складаюцца з мноства ўзаемадзейнічаюць элементаў. Такія сістэмы падпарадкоўваюцца асноўным фізічным законам, якія прымушаюць іх заўсёды асесці ў стабільным стане (з найменшай энергіяй). Хоць гэты ўстойлівы стан непрадказальны, ён можа падтрымлівацца на працягу вялікай колькасці варыяцый узаемадзеяння кампанентаў.

Тэорыя хаосу сцвярджае, што сістэма становіцца хаатычнай, калі ўзаемадзеянне кампанентаў дасягае крытычнага парога, а потым прыстасоўваецца да новага і іншага ўстойлівага стану. Прырода выкарыстоўвае гэтую з'яву, каб выклікаць эвалюцыйны прагрэс. Генетычныя змены звычайна могуць быць дапушчаныя ў біялагічнай сістэме, але час ад часу генетычных змен можа быць дастаткова, каб біялагічная сістэма функцыянавала значна інакш. Гэта можа быць і да лепшага, альбо да горшага. Канкурэнцыя паміж біялагічнымі сістэмамі забяспечвае захаванне сістэм, якія змяняюцца да лепшага, і страту ніжэйшых змен.

Хоць яны могуць нічога не ведаць пра тэорыю хаосу, разумныя эканамісты і дзелавыя людзі ведаюць пра гэты феномен, і калі сістэма не паводзіць сябе так, як належыць, яны ўносяць змены, каб перавесці яе ў новы стан. Трэба быць дастаткова адважным, каб справіцца з вынікам кароткатэрміновага хаосу і быць гатовым спыніць змены, калі сітуацыя пагоршыцца. Аднак гэта адзіны спосаб барацьбы і кіравання складанымі сістэмамі. Крыўдна, што нашы палітыкі не навучаюцца тэорыі хаосу.


адказ 3:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 4:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 5:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 6:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 7:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 8:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 9:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 10:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 11:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 12:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.


адказ 13:

Можа, у пэўным фундаментальным сэнсе розніцы няма

Гэта азначае, што ў прыродзе рэальнай выпадковасці няма.

Магчыма, ёсць толькі ступень выпадковасці, вызначаная гэтым

Ступень энтрапіі ў феномене. Гэта праблема

Выпадковасць наогул не мае зместу інфармацыі, і гэта,

сама па сабе інфармацыя. Своеасаблівы парадокс.