Allen Institute for AI (Ai2), eğitilmiş bir yapay zeka modelinden verilerin sonradan çıkarılmasına olanak tanıyan bir yöntem geliştirdi. Seattle merkezli Ai2, büyük dil modellerinin nasıl eğitildiği ve kimin kontrolünde olduğu konularında köklü değişiklikler yaratabilecek yeni bir yaklaşım sundu. “FlexOlmo” adlı bu yeni model, yapay zeka eğitimi sürecinde veriye sonradan müdahale etme imkanı tanıyor. Böylece artık bir veri modelde kullanıldıktan sonra bile sistemden çıkarılabiliyor.
Veri sahipliğinde dönüşüm
Günümüzde yapay zeka şirketleri, internet, kitaplar ve diğer kaynaklardan veri toplayarak dev modeller eğitiyor. Bu veriler modelin içine “pişirildikten” sonra geri almak neredeyse imkansız hale geliyor. Ai2 CEO’su Ali Farhadi durumu şöyle özetliyor:
Geleneksel olarak veriniz ya içerdedir ya da dışarıdadır. Eğitildikten sonra kontrolü kaybedersiniz. Geri almanız için milyonlarca dolarlık yeniden eğitim gerekir.
FlexOlmo ise bu anlayışı tersine çevirdiğini ortaya koyuyor:
FlexOlmo nasıl çalışıyor?
FlexOlmo mimarisi, “mixture of experts” (uzmanların karışımı) olarak bilinen bir sistem üzerine kurulu. Bu yapı, bağımsız olarak eğitilmiş küçük modellerin daha büyük bir ana modele entegre edilmesini sağlıyor. Süreç şu şekilde işliyor:
- Ortak bir “anchor” model paylaşılır.
- Veri sahibi kişi ya da kurum, kendi verisiyle bu modelin üzerine yeni bir alt model eğitir.
- Elde edilen alt model, ana modele entegre edilir.
Bu sayede veri doğrudan kimseyle paylaşılmadan sisteme katkı sağlanabiliyor ve gerektiğinde çıkarılabiliyor. Örneğin bir dergi yayınevi, arşivindeki yazılarla bir modele katkı sunabilir ancak daha sonra hukuki sebeplerle ya da modelin kullanım amacı değiştiğinde bu katkısını geri çekebilir.
Bağımsız eğitim, modüler yapı
Ai2’de araştırma bilimcisi olan Sewon Min, sürecin veri sahiplerinin birbiriyle koordinasyon kurmasını gerektirmediğini, eğitimin bağımsız olarak yürütülebildiğini belirtiyor.
Bu özellik, farklı veri sahiplerinin aynı modelde iş birliği yapabilmesini mümkün kılarken, veri gizliliğini ve sahipliğini de koruma altına alıyor.
FlexOlmo araştırmacıları, kendi oluşturdukları özel bir veri kümesini kullanarak 37 milyar parametreli bir model inşa etti. Bu, Meta’nın açık kaynaklı en büyük modelinin yaklaşık onda biri boyutunda. Yapılan testlerde:
- FlexOlmo, diğer bireysel modellerden daha iyi performans gösterdi.
- Bağımsız eğitilen modellerin birleştirilmesinde kullanılan diğer iki yönteme göre %10 daha yüksek başarı sağladı.
Farhadi’ye göre bu yöntem, hem “pastaya sahip olmayı” hem de “yumurtaları geri almayı” mümkün kılıyor.
Yeni dönemin habercisi: Şeffaflık ve kontrol
Stanford Üniversitesi’nden yapay zeka araştırmacısı Percy Liang’in Wired’a verdiği demece göre, yaklaşım umut verici:
Yeniden eğitim gerektirmeden daha modüler kontrol sağlamak, dil modellerini kara kutular gibi görmekten uzaklaştıran ferahlatıcı bir yönelim.
Ayrıca FlexOlmo’nun, özel ya da hassas verilerin doğrudan paylaşılmadan kullanılabilmesini sağlayarak şirketlere daha güvenli iş birlikleri sunabileceği öngörülüyor. Ancak araştırmacılar, modelden veri çıkarımının hala mümkün olabileceği uyarısında bulunarak, differential privacy gibi veri gizliliğini matematiksel olarak garanti altına alan tekniklerin kullanılmasını öneriyor.
Büyük dil modellerinin eğitildiği verilerin sahipliği, son yıllarda büyüyen bir hukuki tartışma alanı. Bazı yayınevleri teknoloji devlerine karşı dava açarken, bazıları ise içeriklerine erişim sağlayan anlaşmalar yapıyor.
Haziran 2025’te Meta, 13 yazarın kitaplarını eğitimde kullandığı için açılan davada bir zafer kazanarak, açık kaynak modelin eğitilmesinin yasalara aykırı olmadığına dair bir federal mahkeme kararı aldı.
Bu örnekler de ışığında Min’e göre FlexOlmo, daha iyi açık modeller inşa etmek için yeni bir zemin sunuyor:
Bence veri, en gelişmiş modellerin önündeki en büyük engel. Bu sistem sayesinde farklı veri sahipleri gizliliklerinden ve kontrollerinden ödün vermeden ortak modeller geliştirebilir.
Buna da göz atın: Cloudflare: Botlara varsayılan engelleme dönemi başladı



