25 Nisan 2014 Cuma

Life Gets Too Complicated

Life Gets Too Complicated
Hayat Çok Karmaşık Hale Geliyor

In the weeks since the Deepwater Horizon explosion, the political debate has fallen into predictably partisan and often puerile categories. 
Deepwater Horizon platformundaki patlamanın sonrasındaki siyasi tartışmalar, tahmin edileceği üzere taraflı ve genelde çocukçaydı.

Conservatives say this is Obama’s Katrina. Liberals say the spill is proof the government should have more control over industry.  Muhafazakârlar bunun, Obama'nın Katrina kasırgası olduğunu söylüyor. Liberallere göre sızıntı, hükümetin petrol sektörünü daha sıkı denetlemesi gerektiğini gösteriyor. 

But the real issue has to do with risk assessment. It has to do with the bloody crossroads where complex technical systems meet human psychology.Oysa asıl mesele risk değerlendirmesiyle ve karmaşık teknik sistemlerin insan psikolojisiyle karşılaştığı uğursuz kavşaklarla ilgili.
 
Over the past decades, we’ve come to depend on an ever-expanding array of intricate high-tech systems. 
Son birkaç on yılda giderek genişleyen karmaşık ileri teknoloji sistemlerine bağımlı olduk. 

These hardware and software systems are the guts of financial markets, energy exploration, space exploration, air travel, defense programs and modern production plants.Bu donanım ve yazılım sistemleri finans piyasalarının, petrol aramalarının, uzay araştırmalarının, hava yolculuğunun, savunma projelerinin ve modern üretim tesislerinin temelini oluşturuyor. 

 These systems, which allow us to live as well as we do, are too complex for any single person to understand. Yet every day, individuals are asked to monitor the health of these networks, weigh the risks of a system failure and take appropriate measures to reduce those risks.
Bunlar tek bir kişinin anlayamayacağı kadar karmaşık. Ama insanlardan bu şebekelerin işleyişini sürekli kontrol etmeleri, sistem arızasının getireceği riskleri değerlendirip bunları azaltacak önlemleri almaları isteniyor. 

If there is one thing we’ve learned, it is that humans are not great at measuring and responding to risk when placed in situations too complicated to understand. Oysa insanların anlaşılamayacak kadar karmaşık durumlarda, riskleri değerlendirip bunlara cevap verme yeteneği sınırlı. 

 In the first place, people have trouble imagining how small failings can combine to lead to catastrophic disasters. At the Three Mile Island nuclear facility, a series of small systems happened to fail at the same time. 
İlk olarak, insanlar küçük hataların birleşip yıkıcı felaketlere neden olacağını düşünemiyor. Three Mile Island nükleer santralinde, birkaç küçük sistem aynı anda arızalandı.
  
It was the interplay between these seemingly minor events that led to an unanticipated systemic crash. Tüm sistemin beklenmedik biçimde çöküşüne yol açan şey, görünüşte önemsiz olan bu olaylar arasındaki etkileşimdi.

 Second, people have a tendency to get acclimated to risk. As the physicist Richard Feynman wrote in a report on the Challenger disaster, as years went by, NASA officials got used to living with small failures. 
 İkincisi, insanlar riske alışırlar. Fizikçi Richard Feynman, Challenger uzay mekiği kazasıyla ilgili raporunda, NASA yetkililerinin küçük arızalarla yaşamaya alıştığını yazmıştı.

If faulty O rings didn’t produce a catastrophe last time, they probably won’t this time, they figured.
 Yetkililer, "O halkalı contalar geçen sefer felakete neden olmadılarsa, muhtemelen şimdi de olmayacaklardır" diye düşünmüştü.

Feynman compared this to playing Russian roulette. Success in the last round is not a good predictor of success this time. Nonetheless, as things seemed to be going well, people unconsciously adjust their definition of acceptable risk.Son denemedeki başarı, bir sonraki denemenin başarılı olacağını göstermez. Buna rağmen, işler yolunda gidiyor gibi göründüğü sürece, insanlar kabul edilebilir risklere dair fikirlerini bilinçsizce değiştirirler.

 Third, people have a tendency to place elaborate faith in backup systems and safety devices. More pedestrians die in crosswalks than when jay-walking. That’s because they have a false sense of security in crosswalks and are less likely to look both ways.  Üçüncüsü, insanlar güvenlik mekanizmalarına ve yedek sistemlere güvenir. Yaya geçitlerinde ölenlerin sayısı, diğer yerlerde ölenlerden fazladır. Çünkü yaya geçitlerinden yanlış bir güven duygusuyla geçen insanlar, çoğu kez her iki yöne de bakmazlar. 

 On the Deepwater Horizon oil rig, a Transocean official apparently tried to close off a safety debate by reminding everybody the blowout preventer would save them if something went wrong. 
Görünüşe göre, Deepwater Horizon platformundaki bir Transocean yetkilisi güvenlikle ilgili bir tartışmayı, sorun çıkması durumunda kaçak önleyici cihazın kendilerini kurtaracağını söyleyerek kapatmış.
 
The illusion of the safety system encouraged the crew to behave in more reckless ways. As Malcolm Gladwell put it in a 1996 New Yorker essay, “Human beings have a seemingly fundamental tendency to compensate for lower risks in one area by taking greater risks in another.”Yanıltıcı güvenlik mekanizması, çalışanların daha dikkatsiz davranmasına yol açmış. Malcolm Gladwell'in 1996'da New Yorker'da yazdığı gibi: "İnsanların bir konudaki küçük riskleri, diğer bir konuda daha büyük riskler alarak dengelemeye yönelik temel bir eğilimi var".

 Fourth, people have a tendency to match complicated technical systems with complicated governing structures. 
Dördüncüsü, insanlar karmaşık teknik sistemlere eşlik eden karmaşık yönetim yapıları geliştirir. 

The command structure on the Deepwater Horizon seems to have been completely muddled, with officials from BP, Transocean and Halliburton hopelessly tangled in confusing lines of authority and blurred definitions of who was ultimately responsible for what.
  Deepwater Horizon'daki komuta yapısının dağınık olduğu anlaşılıyor.  BP yetkilileri, Transocean ve Halliburton, karışık bir yetki dağılımına ve belirsiz sorumluluk paylaşımına umutsuzca saplanıp kalmıştı.

Fifth, people tend to spread good news and hide bad news. Everybody wants to be part of a project that comes in under budget and nobody wants to be responsible for the reverse. 
Beşincisi, insanlar iyi haberleri yayıp kötü haberleri saklarlar. Hiç kimse, içinde yer aldığı projenin bütçe hedeflerini aşmasını istemez.Aksi halde kimse sorumluluğu üstlenmez.
 
For decades, a steady stream of oil leaked out of a drill off the Guadalupe Dunes in California. A culture of silence settled upon all concerned, from front-line workers who didn’t want to lose their jobs to executives who didn’t want to hurt profits.  California Guadelupe Kumulları'ndaki bir kuyudan yıllarca petrol sızdı. İşlerini kaybetmek istemeyen işçilerden, kârın azalmasını istemeyen yöneticilere kadar herkes, sessiz kaldı.
 
Finally, people in the same field begin to think alike, whether they are in oversight roles or not. 
 Son olarak, aynı konuda çalışan insanlar, gözetim konumunda olsalar da olmasalar da bir süre sonra aynı biçimde düşünmeye başlarlar. 

The oil industry’s capture of the Minerals Management Service is actually misleading because the agency was so appalling and corrupt. 
Petrol sektörünün Federal Maden Yönetim Dairesi'ni ele geçirmesi aslında yanıltıcıdır. Çünkü bu kurum çok berbat ve yozlaşmış bir kurumdu.

Cognitive capture is more common and harder to detect. Asıl yaygın ve fark edilmesi zor olan, zihniyet işgalidir.

In the weeks and hours leading up to the Deepwater Horizon disaster, engineers were compelled to make a series of decisions: what sort of well-casing to use; how long to circulate and when to remove the heavy drilling fluid or “mud” from the hole; how to interpret various tests. 
Deepwater Horizon felaketi öncesinde, mühendisler bir dizi karar vermek zorunda kaldı. Ne tür bir kuyu kaplaması kullanılmalıydı? Ağır sondaj çamuru ne kadar süreyle kullanılıp ne zaman kuyudan çıkarılmalıydı? Farklı testler nasıl yorumlanmalıydı?
 
They were forced to make these decisions without any clear sense of the risks and in an environment that seems to have encouraged overconfidence.
Mühendisler bu kararları, kendilerine çok fazla güvenmelerine neden olan bir ortamda, risklere dair net bilgileri olmadan almışlardı.
Over the past years, we have seen smart people at Fannie Mae, Lehman Brothers, NASA and the C.I.A. make similarly catastrophic risk assessments. Son yıllarda Fannie Mae, Lehman Brothers, NASA ve CIA'de çalışan akıllı insanlar, birbirine benzeyen yıkıcı risk değerlendirmeleri yaptı.
  As Gladwell wrote in that 1996 essay, “We have constructed a world in which the potential for high-tech catastrophe is embedded in the fabric of day-to-day life.”Gladwell 1996'daki makalesinde: "İleri teknolojiden kaynaklanan bir felaket olasılığının, günlük yaşamın dokusuna sindiği bir dünya yarattık" demişti.

So it seems important, in the months ahead, to not only focus on mechanical ways to make drilling safer, but also more broadly on helping people deal with potentially catastrophic complexity. 
Bu yüzden, sadece sondajları daha güvenli yapacak mekanik yöntemlere odaklanmamak gerekir. Aynı zamanda insanlara, yıkıcı olabilen karmaşayla baş etmeleri için yardım edilmeli.

There must be ways to improve the choice architecture — to help people guard against risk creep, false security, groupthink, the good-news bias and all the rest.
    İnsanların sinsice yaklaşan risklere, sahte bir güven duygusuna, grup düşüncesine ve sadece iyi haberleri görme hatasına karşı uyanık kalması için önlemler alınmalı.
This isn’t just about oil. It’s a challenge for people living in an imponderably complex technical society.
 Bu sadece petrolle ilgili değil. Son derecede karmaşık bir teknoloji toplumunda yaşayan insanlar için bir sınavdır.
David Brooks


http://www.nytimes.com/2010/05/28/opinion/28brooks.html (English)
http://www.sabah.com.tr/NewYorkTimes/2010/06/07/hayat_cok_karmasik_hale_geliyor (Türkçe)

0 yorum: