
Jack Dorsey’nin 4.000 kişilik işten çıkarması, Anthropic’in güvenlik taahhüdünü iptal etmesi, Trump’ın AI yasağı, OpenAI’ın Pentagon anlaşması ve Perplexity’nin orkestrasyon platformu — tek bir haftada yaşanan bu gelişmelerin stratejik haritası.
Anthropic güvenlik taahhüdü iptal, Block 4000 işten çıkarma, OpenAI Pentagon anlaşması — Şubat 2026’nın dönüm noktası bu yazıda analiz ediliyor.
Bazı haftalar, yıllar sonra geriye bakıldığında bir kırılma noktası olarak işaretlenir.
26-28 Şubat 2026 haftası böyle bir hafta.
AI şirketleri bir söz verdi: “Tehlikeli hale gelirse durururuz.” Hükümetler buna güvendi. Şirketler buna güvendi. Biz buna güvendik. Geçen hafta o söz kalktı.
Dört gelişme arka arkaya geldi. Jack Dorsey, Block’ta 4.000 kişiyi işten çıkardı ve “tüm şirketler aynısını yapacak” dedi. Anthropic, 2023’ten bu yana taşıdığı temel güvenlik taahhüdünü iptal etti. Trump tüm federal ajansları Anthropic’i kullanmaktan yasakladı ve Pentagon şirketi ulusal güvenlik riski ilan etti. Aynı gece OpenAI, Anthropic’in boşalttığı yere geçerek Pentagon ile anlaşma imzaladı. Ve bu dramatik tablonun ortasında Perplexity, 19 farklı AI modelini koordine eden otonom bir platform piyasaya sürdü.
Bu yazıda her gelişmeyi detayıyla ele alacağım, güç dengesinin nasıl değiştiğini analiz edeceğim ve farklı karar verici profillerine bu haftayı okuyacak somut bir çerçeve sunacağım.
Amaç gündem aktarımı değil — gündemi anlamlandırmak.
Bölüm 1: Haftanın Dört Kritik Gelişmesi
Jack Dorsey ve Block: “Tüm Şirketler Aynısını Yapacak”
26 Şubat 2026’da Jack Dorsey, fintech şirketi Block’un çalışan sayısını 10.205’ten 6.000’in altına çekeceğini açıkladı. 4.000’den fazla kişi işini kaybetti. Block, Square, Cash App ve Afterpay’in sahibi — fintech sektörünün kritik oyuncularından biri.
Gerekçe net ve defalarca vurgulandı: yapay zeka araçları. Dorsey’nin hissedarlar mektubundaki ifadesiyle: “Daha küçük bir ekip, kullandığımız araçlarla daha fazlasını ve daha iyi şekilde yapabiliyor. Ve bu araçların kapasitesi her hafta hızlanarak artıyor.”
Piyasanın tepkisi dikkat çekiciydi: Block hissesi aynı gece yüzde 24 yükseldi. Bu, otomasyon haberinin piyasa tarafından ödüllendirildiğinin açık göstergesi.
Dorsey’nin açıklamasındaki en kritik öngörü şu: “Bir yıl içinde şirketlerin büyük çoğunluğunun aynı yapısal değişime gideceğine inanıyorum. Ben bunu reaktif değil, proaktif yapmayı tercih ettim.” Bloomberg röportajında ise şunu ekledi: “Aralık 2025’te modeller bir anda kat be kat daha zeki hale geldi. Eğer hâlâ AI kullanımında boşluklar varsa — bu bir uygulama boşluğu, model boşluğu değil.”
Fortune’daki ekonomist Anton Korinek bu hamleyi ekonomik bağlamına oturttu: “Bu, beyaz yaka işlerin daha ciddi biçimde tehdit altına girdiği yeni bir trendin başlangıcı olabilir. Birkaç şirket bu trendi başlatınca rekabet baskısı diğerlerini de aynı yöne itiyor.”
Anthropic Güvenlik Taahhüdünü İptal Etti — Ve Pentagon Devreye Girdi
Bu haftanın en karmaşık ve stratejik açıdan en önemli gelişmesi budur. Üç ayrı olay tek bir haftada üst üste geldi.
25 Şubat: Anthropic, 2023’ten beri taşıdığı temel güvenlik taahhüdünü kaldırdı. “Sorumlu Ölçekleme Politikası”nın özü şuydu: Eğer modellerimiz güvenlik önlemlerimizin kapasitesini aşarsa, eğitimi durdururuz. Bu taahhüt artık politikanın bir parçası değil.
Anthropic’in Baş Bilim Sorumlusu Jared Kaplan, TIME dergisine şunu söyledi: “Rakipler hızla ilerliyorken AI modellerini eğitmeyi durdurmamız kimseye yardımcı olmaz. Tek taraflı taahhütlerin anlamlı olduğunu düşünmüyoruz.”
Bu değişiklik sektörde derin bir kırılmayı simgeliyor. Anthropic, dört yıl boyunca “biz farklıyız, biz güvenlik odaklıyız” konumlanmasını özenle inşa etmişti. Bu konumlanma, hem yatırımcı güveninin hem de kurumsal müşteri tercihinin temeliydi. Bir haftada eridi.
27 Şubat: Trump tüm federal ajansları Anthropic teknolojisini kullanmaktan yasakladı. Pentagon ise şirketi “Ulusal Güvenlik İçin Tedarik Zinciri Riski” olarak ilan etti — bu etiket normalde Huawei gibi yabancı düşman şirketlere verilir.
Bağlam kritik: Anthropic, 200 milyon dolarlık Pentagon sözleşmesine sahipti. Sözleşmenin şartlarından biri şuydu: Otonom silahlar ve toplu iç gözetim için AI kullanılmayacak. Pentagon bunu kabul etmedi. Anthropic geri adım atmadı. Sonuç: yasak.
Aynı gece: OpenAI CEO’su Sam Altman, şirketinin Pentagon ile anlaşma imzaladığını duyurdu. Altman’ın açıklaması dikkat çekiciydi: “İki temel kırmızı çizgimiz var: toplu iç gözetim yasak, otonom silahlar için insanın döngüde kalması zorunlu.”
Bunlar Anthropic’in istediği şeylerin neredeyse aynısı. Peki fark ne? Ne CNN ne Pentagon ne de OpenAI bu soruya bu hafta net cevap verebildi.
Perplexity Computer: Orkestrasyon Katmanının Yükselişi
25 Şubat 2026’da Perplexity AI, “Computer” platformunu piyasaya sürdü. Bu bir chatbot değil — 19 farklı AI modelini koordine eden genel amaçlı bir otonom iş akışı sistemi.
Mimari: Merkezi akıl yürütme için Claude Opus 4.6, derin araştırma için Gemini, hız gerektiren görevler için Grok, uzun bağlam yönetimi için GPT-5.2, görsel üretim için özel modeller. Sistem 400’den fazla uygulama entegrasyonuyla çalışıyor ve saatler hatta aylarca otonom yürüyebiliyor.
Perplexity’nin stratejik tezi önemli: “AI modelleri komoditleşmiyor — özelleşiyor. Kazananlar en iyi tek modeli yazan değil, en iyi model kombinasyonunu koordine edenler.”
Bu, “hangi model en iyi?” sorusunun yerini “hangi sistem en iyi koordine ediyor?” sorusuna bıraktığı yeni bir rekabet eksenini tarif ediyor. Bilgi işçisi ağırlıklı iş süreçleri için somut bir verimlilik fırsatı anlamına geliyor.
Google AI Mode Reklamları: Arama Monetizasyonu Yeniden Yazılıyor
Google, AI Mode konuşmalı arama deneyimine alışveriş reklamları entegre etti. Bu platform günlük 75 milyon kullanıcıya ulaşıyor. Reklamlar artık arama sonuçlarının altında değil — AI tarafından üretilen yanıtın içinde yer alıyor.
Aynı hafta OpenAI, ChatGPT üzerinden tam otonom kampanya yönetimi vizyonunu açıkladı: kullanıcı iş hedefini tanımlıyor, sistem teklifleri test ediyor, bütçeyi dinamik dağıtıyor.
“Arama sonuçları sayfası” kavramı ölüyor. Yerine geçen: AI yanıtı içinde görünmek. Bu farklı bir içerik stratejisi, farklı yaratıcı format ve farklı ölçüm modeli gerektiriyor.
Bölüm 2: Stratejik Analiz — Büyük Resim
Desen Tespiti: Hızlanma Kontrolden Çıkıyor
Bu dört gelişmenin ortak paydası şu: Her aktör kendi kırmızı çizgisini bu hafta yeniden çizmek zorunda kaldı.
Dorsey, işten çıkarma eşiğini çizdi. Anthropic, güvenlik taahhüdünün sınırını çizdi ve geri adım attı. OpenAI, Pentagon ile müzakere masasında ne kadar ileri gidebileceğini çizdi. Google, reklam içeriğinin AI yanıtına ne kadar nüfuz edebileceğini test etti.
Tekrar eden sinyal açık: Rekabet baskısı, tek taraflı tutumların sürdürülebilirliğini ortadan kaldırıyor. “Biz farklıyız” iddiası, rakipler hızlanınca tutarlılığını yitiriyor.
Güç Dengesi Haritası
Bu hafta güçlenen aktörler: OpenAI, Anthropic’in bıraktığı kurumsal ve askeri alana geçti — kısa vadede büyük kazanım. Google, AI Mode reklam envanteri ile uzun vadede muazzam bir gelir kaynağı inşa ediyor. Otomasyon platformları, Block’un hisse artışı piyasanın bu trendi ödüllendirdiğini açıkça gösteriyor.
Bu hafta zayıflayan aktörler: Anthropic, 200 milyon dolarlık sözleşme risk altında, kurumsal güven sarsıldı, siyasi pozisyon hassaslaştı. Gönüllü AI güvenlik söylemi, sektörün “biz sorumlu şirketiz” hikâyesi bu haftanın haberlerinden ciddi şekilde zarar gördü.
Jeopolitik boyut kritik: ABD hükümeti AI şirketlerini kendi güvenlik politikasına uydurmakta kararlı. AB ise düzenleyici baskıyı sürdürüyor. Bu iki eksen önümüzdeki aylarda daha da gerilecek.
Tarihsel Bağlam
1950’lerin sonunda ABD fabrikalarında otomasyon tartışmaları yaşandı. Geçişi geciktirenler birkaç yıl sonra rekabet gücünü kaybetti. Bugün aynı dinamik var — ama bu sefer değişim on yıl değil, on sekiz ay içinde gerçekleşiyor. Proaktif hareket edenler koşulları belirliyor, reaktif kalanlar koşullara boyun eğiyor.
Bölüm 3: Sahadan İki Deneyim
Bu haftanın haberlerini okurken soyut görünebilir. Biz aynı haftada bunları sahada yaşadık.
Birincisi oyun sektöründen.
Kendi geliştirdiğimiz bir mobil oyunun oynanış videolarını AI modelleriyle analiz ettirdik. Haftalardır bu videoları manuel izleyip not alıyorduk — zaman alıcı, yavaş ve kaçınılmaz olarak öznel.
Model, oyuncunun tıkandığı noktaları, erken çıkış yaptığı anları ve ilgisinin doruk noktalarını sistematik olarak işledi. Somut örnek: belirli bir bölümde oyuncuların yüzde altmışı üçüncü denemede çıkış yapıyordu. Nedenini bilmiyorduk. Model şunu gösterdi: görsel geri bildirim bir buçuk saniye geç geliyordu. Oyuncu bir şey yaptı, sonucu göremedi. Belirsizlik sinir yarattı, sinir çıkış yarattı. Haftalarca A/B testi yerine birkaç saatlik AI analizi yetti.
Ama asıl çarpıcı olan ikinci kısımdı. Oyun içi AI davranışını — rakip karakterleri ve NPC’leri — canlı insan davranışına yaklaştırdık. Artık öngörülebilir kalıplarla hareket etmiyor. Hata yapıyor, öğreniyor, adapte oluyor. İnsanlar mükemmel rakip değil — gerçekçi rakip istiyor. Retention doğrudan etkilendi.
İkincisi kurumsal taraftan.
Bir müşterimiz için yapay zeka destekli sözleşme analiz modülü geliştirdik. Bu müşteride her sözleşme tek bir noktaya akıyordu: hukuk departmanı. Ve o nokta tıkanıyordu. Temel bir maddenin ne anlama geldiğini anlamak için haftalar geçiyordu.
Şimdi her departman kendi sözleşmelerini analiz edebiliyor. Gizlilik anlaşmalarından tedarikçi belgelerine, franchise sözleşmelerinden uluslararası hizmet anlaşmalarına kadar. Madde madde risk tespiti, eksik hükümler, uyumsuzluk noktaları, önerilen değişiklikler. Uluslararası hukuk analizi standartlarında rapor. Şirketin kendi mevzuatı ve iç belgeleriyle beslenmiş, kapalı devre bir yapı.
Ama bu modülü kurarken en çok tartıştığımız konu yapay zekanın kendisi değildi. Veri güvenliğiydi.
Müşteri haklı sorular soruyordu: “Sözleşmelerimizi AI’a gönderdiğimizde bu veriler nereye gidiyor? Eğitim verisine dönüşüyor mu? Rakiplerimizin sisteminde bir gün bu belgeler beliriyor mu?”
Biz dürüst olmak istedik: veri güvenliği ayrı ve ciddi bir çalışma gerektiriyor. Ama bu sorunun somut cevapları var. Model sağlayıcısıyla Zero Data Retention anlaşması imzalanabilir — işlem biter, veri silinir, saklanmaz. Model eğitimine opt-out yapılır — belgeler sistemin öğrenmesi için kullanılmaz. SOC 2 veya ISO 27001 sertifikalı sağlayıcılarla çalışılır. Veri işleme sorumluluğunu hukuki olarak sağlayıcıya yükleyen DPA anlaşmaları imzalanır.
“AI’a veri gönderemeyiz” doğru cümle değil. Doğru cümle: “AI’a veri göndermeden önce bu güvenceleri almanız gerekiyor.”
Hukuk ekibi modülü ilk kullandıktan sonra şunu söyledi: “Bu, bizim işimizi elimizden almıyor. Bizi gerçekten önemli olan sorulara yönlendiriyor.”
Doğru kurulmuş AI, insanın yerini almıyor. İnsanı doğru yere koyuyor.
Bölüm 4: Sektör Odağı — Finans
Finans Sektöründe Yapay Zekâ: Best Practice’ler, Canlı Örnekler ve Kritik Noktalar
Finans sektörü, yapay zekâyı en hızlı ve en derin kullanan alanlardan biri.
Bugün artık yapay zekâ; sadece operasyonel verimlilik aracı değil, doğrudan rekabet avantajı üreten bir “karar motoru”.
Dünyada baktığımızda örneğin
JPMorgan Chase, sözleşme inceleme süreçlerinde binlerce saatlik hukuki operasyonu AI ile dakikalara indiriyor.
BlackRock, risk analizinde büyük veri ve makine öğrenmesini kullanarak portföy volatilitesini gerçek zamanlı optimize ediyor.
BBVA ise kredi skorlama ve müşteri davranış analizi tarafında AI destekli karar sistemleriyle tahsis hızını ciddi şekilde artırdı.
Best practice nedir?
- AI’yi tek bir departmanın projesi yapmamak.
- Risk, IT, hukuk ve iş birimlerini aynı masaya oturtmak.
- Model geliştirmekten önce veri kalitesini düzeltmek.
- “Explainable AI” yaklaşımıyla kararların açıklanabilir olmasını sağlamak.
Finansta en kritik konu güven.
Bir kredi neden reddedildi?
Bir işlem neden fraud olarak işaretlendi?
Regülasyon bunu sorar.
Canlı kullanım alanları:
- Fraud detection (gerçek zamanlı sahtekârlık tespiti)
- Algorithmic trading
- Kişiselleştirilmiş bankacılık önerileri
- Kredi risk modelleme
- Chatbot ve müşteri hizmetleri otomasyonu
Avantajlar:
- Operasyonel maliyet düşüşü
- Risk tahmininde artan doğruluk
- Hızlı karar mekanizması
- Kişiselleştirilmiş müşteri deneyimi
Dikkat edilmesi gerekenler:
- Veri güvenliği
- Model bias (önyargı riski)
- Regülasyon uyumu
- Siber güvenlik
- Model drift – zamanla performans kaybı
Bugün finans sektöründe kazananlar, yapay zekâyı “araç” olarak değil, kurumsal zekânın bir uzantısı olarak konumlandıran kurumlar olacak.
Eylem Planı ve Tavsiyeler
Karar Vericiler ve Üst Yönetim için
İşgücü stratejinizi bu hafta yeniden masaya yatırın. Block’un hamlesi bir uç örnek değil — Dorsey’nin öngörüsü piyasa baskıları göz önüne alındığında ciddiye alınması gereken bir uyarıdır. Proaktif plan her zaman reaktif krizden iyidir.
AI tedarik zincirinizi denetleyin. Hangi kurumsal yazılımlar arka planda hangi AI modellerini kullanıyor? Anthropic krizi bu soruyu teknik olmaktan çıkardı — artık hukuki ve siyasi bir soru. Bu soruyu bu ay cevaplayın.
Geopolitik risk değerlendirmesini AI stratejinize ekleyin. Bu hafta gördük: AI şirketleri artık siyasi aktörler. Hangi sağlayıcıyla çalıştığınız, ticari olduğu kadar siyasi sonuçlar da doğuruyor.
Girişimciler için
İşgücü dönüşümünün yarattığı boşluğu fırsata çevirin. Büyük şirketler işten çıkarıyor ve dönüşüyor. Bu süreçte ihtiyaç duydukları araçları, danışmanlığı veya platformu sağlayan girişimler için ciddi bir alan açılıyor.
Orkestrasyon katmanında büyük fırsat var. Perplexity Computer genel amaçlı. Ama finans, hukuk, sağlık, lojistik — sektöre özel çok-model iş akışı sistemleri inşa etmek önümüzdeki iki yılın en değerli girişim alanlarından biri olacak. Dikey düşünün, genel değil.
AI güvenlik ve uyum danışmanlığı patlayacak. Anthropic krizi gösterdi: şirketler hangi AI aracını kullandıklarının riskini artık anlamak zorunda. Bu alanda uzmanlaşmak önümüzdeki on iki ayda çok değerli bir pozisyon.
Bireyler ve Çalışanlar için
Kendi AI bağımlılığınızı haritalayın. Hangi araçları kullanıyorsunuz? Bunlar yarın değişirse ne olur? Tek bir sağlayıcıya bağlı kalmak bireysel bir risk. Alternatiflerinizi şimdiden tanıyın.
“AI benim işimi alacak mı?” sorusunu bırakın — “AI ile nasıl daha değerli hale gelirim?” sorusunu sorun. Block’un işten çıkardığı 4.000 kişinin tamamı aynı profilde değil. AI’ı kullananlar, AI’ı yönetenler, AI çıktısını değerlendirenler — bu roller büyüyor. Kendinizi o tarafa konumlayın.
Çalıştığınız kurumun AI dönüşümünü pasif izlemeyin. Şirketinizde AI hangi süreçlere giriyor? Bu soruları sormak, o dönüşümün kurbanı değil — mimarı olmanın ilk adımı.
Sonuç
Bu hafta gördüklerimiz birbirinden bağımsız haberler değil. Tek bir stratejik trendin dört ayrı kanıtı.
AI yarışında hızlanma artık kontrol edilebilir bir değişken değil. Güvenlik taahhütleri düşüyor, işten çıkarmalar hızlanıyor, jeopolitik gerilim yükseliyor ve orkestrasyon platformları bu atmosferde sessiz sedasız büyüyor.
Bu analizin video formatındaki versiyonunu YouTube kanalımda, stratejik özetini LinkedIn profilimde bulabilirsiniz.
Size bu haftanın sorusunu bırakıyorum: İster büyük kurumsal bir yapı olun, ister on kişilik bir ekip, ister tek başınıza çalışan bir girişimci — AI araçlarıma ne kadar bağımlıyım? Bu bağımlılığın riskleri neler? Yarın bu araçlar değişirse ne yaparım?
Bu soruları sormak için büyük bir bütçeye ihtiyacınız yok. Bir saatlik dürüst bir değerlendirme yeterli. Cevabı olmayan her ölçekteki şirket — bu haftadan ders çıkarması gereken şirket.
Leave a Reply