top of page

Yapay Zeka ve Hisseler: Etik Sınırı Aştık mı?

  • Yazarın fotoğrafı: Erkan Öztürk
    Erkan Öztürk
  • 7 Eki 2025
  • 2 dakikada okunur

Yapay zeka (YZ), hayatımızın her alanına nüfuz ederken, finansal piyasalar bu devrimin en ön saflarında yer alıyor. Özellikle hisse senedi alım-satım botları, YZ'nin hız ve veri işleme gücünden faydalanarak saniyeler içinde milyonlarca işlem kararı verebiliyor. Ancak bu durum, beraberinde önemli bir etik soruyu getiriyor: Karar alıcı pozisyondaki bir yapay zeka, ne kadar sorumlu olabilir?


Sorumlu YZ Söylemi ile Gerçekler Arasındaki Uçurum


İlk bakışta çelişkili bir manzara ile karşı karşıyayız. Bir yanda, başta büyük dil modelleri (ChatGPT, OpenAI, Gemini, Meta, Titan, Claude, Grok, DeepSeek) olmak üzere birçok YZ aracı, "sorumlu yapay zeka" prensipleri gereği açıkça yatırım tavsiyesi vermekten kaçınır. Sistem buna göre kısıtlanır. Bu, etik bir önlem ve yasal bir kalkan olarak görülebilir.

Ancak işin diğer yüzünde, gelişmiş hisse botları var.

Hisse botları, "Kendi yapay zekam" dese de, büyük olasılıkla arka planda OpenAI'nin GPT'sini, Google'ın Gemini'sini veya Meta'nın Llama'sını veya diğer büyük dill modellerini kullanıyor ve ona finansal verileri işlemek üzere özel bir eğitim veriyordur. Bu sistemler, YZ'yi doğrudan "al" veya "sat" komutu vermek için kullanmaz. Bunun yerine, YZ; haberleri, piyasa verilerini, sosyal medya duyarlılığını analiz eder, karmaşık algoritmalar ve fonksiyonlar aracılığıyla bir "eğilim", "olasılık" veya "sinyal" üretir. Programcılar da bu çıktıyı nihai emir için bir "kesin talimat" olarak yorumlar. Peki, bu YZ'yi suç işleyen değil de, azmettirici konumuna sokmaz mı?


Azmettiren Makine: Yasal ve Etik Bir Bilmece


Bu senaryoda yapay zeka, "Ben sadece bir veri analiziyim, nihai karar insana ait" savunmasının ardına sığınıyor. Fakat insan operatör, saniyeler içinde değişen binlerce veri noktasını eliyle yönetemez. Pratikte, YZ'nin "tavsiyesi" büyük ölçüde otomatik olarak uygulanır. Yani, kapıyı "sorumlu YZ" söylemiyle bir taraftan kapatırken, diğer taraftan "araştırmacı algoritma" kisvesi altında aynı içeriği sokuyoruz.

Bu durum, ortaya çıkabilecek sorunlarda sorumluluğun kimde olacağına dair ciddi bir belirsizlik yaratıyor. Bir YZ modeli, öngörülemeyen bir piyasa çöküşünü tetiklediğinde veya manipülatif bir alım-satım desenini farkında olmadan güçlendirdiğinde suçlu kim olacak? Algoritmayı yazan mı, sistemi işleten mi, yoksa "karar verdiğini zannettiğimiz" yapay zekanın kendisi mi?


Sonuç: Güven Bunalımına Doğru


Bu gri alan, uzun vadede yapay zekaya olan güveni aşındırabilir. Finansal piyasalar, güven üzerine inşa edilmiştir. Yapay zekanın bu denli merkezi bir rol oynadığı, ancak sorumluluğunun net olarak tanımlanmadığı bir sistem, kaçınılmaz olarak bir kriz anında büyük bir güven bunalımı yaşayacaktır.


Bu konu, sadece düzenleyiciler ve yazılımcılar için değil, yatırımcılar ve toplumun geneli için de acilen tartışmaya açılması gereken bir konudur. Teknoloji ilerlerken, onun etik ve yasal çerçevesini de aynı hızla inşa etmek zorundayız. Aksi takdirde, makineleri azmettirici yapmaktan öteye gidemeyiz. Sorunun kaynağı, aslında sayıları bir elin parmaklarını geçmeyen birkaç dev model mi, yoksa onları her alanda kullanmaya çalışan binlerce uygulama mı? Tartışmaya değer!

1 Yorum

5 üzerinden 0 yıldız
Henüz hiç puanlama yok

Puanlama ekleyin
Kaan G.
12 Eki 2025

"Azmettirici" olarak yapay zeka botlarının değil ama bu araçlardan yararlanarak piyasa maniplasyonu yapanların hukuki olarak suçlu olacağı çok net geliyor bana. Birine zarar veren bir silahı değil o silahı kullananı cezalandırdığımız gibi.

Düzenlendi
Beğen

© 2025, Erkan Öztürk 

bottom of page