Proč musíme studovat jaderné elektrárny, abychom pochopili bankovnictví
Nassim Taleb, autor slavné Černé labutě, jež právě vychází i v češtině, o Harfordově knize píše, že je úžasná – a má pravdu. Kniha překvapí svou pestrostí. Představuje zdánlivě nesouvisející problémy, jako je strategie vedení války v Iráku, (ne)efektivnost státní podpory výzkumu, (ne)úspěšnost rozvojové pomoci Západu, boj s globálním oteplováním nebo předcházení finančním krizím, aby vysvětlil, jak obdobné jsou příčiny selhání ve všech těchto snahách. Harford jde ve stopách Hayekových a ukazuje z mnoha čtivě a zábavně psaných úhlů pohledu, jak málo ve skutečnosti víme o tom, co dokážeme naplánovat.
Slepota a hloupost
Ať si to někdo je ochoten připustit, či nikoli, společnost je velmi komplikovaný organismus, který čelí nejistotě budoucnosti. A i ve sféře podnikání, v níž lidé mají veškeré motivace vyhýbat se omylům, vidíme, že úspěšně plánovat nelze. Jednou úspěšní podnikatelé či úspěšné strategie se mění ve svůj opak, krachují a mizí. Empirické studie četnosti krachů zavedených firem prokazují, že „firmy jsou mnohem více slepé, než si myslíme“. Úspěchu se tedy nedočká ten, kdo neudělá chybu, ale spíše ten, kdo své chyby přežije a poučí se z nich. Adaptace je klíčem k úspěchu, neomylnost je chimérou. Jakou katastrofu pak představuje snaha plánovat a držet se připravené strategie v systémech s omezenou zpětnou vazbou, ukazuje Tim Harford na průběhu americké intervence v Iráku. Roky trvající neochota technologů války adaptovat se stála mnoho životů a změnu přinesla až bottom-up strategie, se kterou přišli velitelé-disidenti. Jejím základem byla adaptace v reálném čase, jež měla podobu jakési wikipedie průběžně aktualizované lidmi v prvních liniích.
Kniha nabízí řadu epizod z historie technologií a ukazuje, jak nepravděpodobný se zdál úspěch řady objevů, které se následně staly klíčovými pro rozvoj civilizace. Experti se totiž až příliš často zásadně mýlí v tom, co je „nejlepší“ a co nastane, a je proto mnohem rozumnější spoléhat na pluralismus přístupů a experimentování. A to ať se týká nestátní podpory výzkumu pomocí cen či odměn za dosažení průlomového poznatku, která – oproti státním grantům vědeckým týmům – nastavuje správné motivace a otevírá prostor pro konkurenty vědeckému establishmentu; nebo praktikování myšlenky importu právního řádu, tj. „dovozu důvěryhodnosti“ v rámci projektů takzvaných charter cities, o nichž se dnes soudí, že mohou být zárodkem úspěšných strategií hospodářského rozvoje a jejichž kouzlo spočívá taktéž v umožnění konkurence a víře v pluralismus jako klíčům k úspěchu. Každý úspěch vždy stojí na stovkách omylů, ale co je úspěch a co omyl, nevíme ex ante, a proto se neúspěšnému experimentování nevyhneme. Naopak ho potřebujeme, protože neúspěch je prvním krokem k budoucímu úspěchu.
Co ale v situaci, kdy není možné uskutečnit množství malých experimentů a poučit se z chyb? Co když by chyba byla „nepřežitelná“?
Krachy bank a jaderné katastrofy
Stejně jako selhává snaha sebedůvtipnějšího designéra o plánování složitých systémů v případě války či vědeckého pokroku, není funkční – jak ukazuje autor knihy na desítkách příkladů – ani snaha „uhlídat“ složité systémy. Regulátoři, auditoři ani ratingové agentury nás nevarovali před dnešní finanční krizí a jsou to opět spíše lidé z prvních linií jako zaměstnanci či novináři, kteří nebezpečí identifikují první. Ze studia průmyslových katastrof, jejichž průběh nám v mnoha podobách barvitě Tim Harford představuje, navíc vidíme, že sebedokonalejší systém centrální kontroly se nevyhne chybám, obvykle v důsledku fungování jiného bezpečnostního opatření. Přidáváme-li totiž nová bezpečnostní opatření, vytváříme nové možnosti, jak ke katastrofám může dojít. Stojíme tedy před obecným problémem managementu rizika a je jedno, hrozí-li katastrofa finančního systému, jaderné elektrárny nebo ropné plošiny. Princip zajištění bezpečnosti musí být stejný, neboť chyba, která by vedla ke katastrofě velkého rozsahu, by mohla být osudová.
Boris Jelcin kdysi trefně poznamenal v reakci na otázku jednoho redaktora, že myšlenka socialismu je možná zajímavá, ale že by byl raději, kdyby se nejprve vyzkoušela na něčem menším, než byl Sovětský svaz. Experimentování ve velkém je přesně cestou ke katastrofě. Chyby, ke kterým nutně dojde, nesmí způsobit kolaps celého systému. Systém musí být navržen tak, aby jednotlivé segmenty byly na sobě co nejvíce nezávislé a funkčně oddělené. Řídicí a kontrolní centra jednotlivých systémů proto nesmějí být sloučena v jednom místě, banky by neměly mít možnost hazardovat s depozity obyvatel (tak jako dnes při neexistenci rozdílu mezi depozitním a úvěrovým bankovnictvím), decentralizace a evoluce by měly být koncepty, jimž bude dopřáno sluchu více než termínům, jako je centralizace a plánování. Evoluce je totiž chytřejší než pokus sebeinteligentnějšího designéra.
*Box:
ADAPT: WHY SUCCESSS ALWAYS STARTS WITH FAILURE
(Adaptujme se: proč úspěch vždy začíná prohrou)
AUTOR Tim Harford
VYDAL Little, Brown, 2011
ROZSAH 309 stran