• kılıçdaroğlu hasebiyle yeniden gündeme geldiğinden, bu konuda bilinçlenmek isterseniz, sizleri böyle alalım.

    uzun süredir hem data analizi hem de yapay zekaya dair çalışan birisiyim. doğrudan özel sektör içerisinde, uzun yıllardır, farklı uygulamaların hem geliştirilmesi, hem kurulması süreçlerinde bulundum.

    öncelikle deepfake araçları ve midjourney, chatgpt gibi uygulamalar nasıl çalışıyor ya da nasıl böyle ürünler ortaya çıkartabiliyorlar, ondan bahsedelim. herkesin takip edebilmesi adına, biraz "bilal'e anlatır gibi" anlatacağım, uzun olacak şimdiden belirtmiş olayım.

    gerçek olup olmaması farketmeksizin, internette gördüğünüz, bilgisayarınıza, telefonunuza kaydettiğiniz her dosya, aynı matematiksel prensiplerle size görünür/duyulur hale geliyor. bir diğer deyişle; video, ses, fotoğraf ya da metin dosyalarının tamamı, aslında 1'ler ve 0'lardan oluşuyor ancak bir ekranda, kulaklıkta, telefonunuzda işlendiğinde farklı biçimlere dönüşüyor. bugüne kadar herkesin bahsettiği "birler ve sıfırlar" yani.

    bir örnekle açıklayalım;

    diyelim elinizde bir fotoğraf makineniz var, balat civarında, merdivenlerde oturan yaşlı birini gördünüz. yaklaştınız ve portresini çekmek için deklanşöre bastınız. makinenin lensi, gelen ışığı eğip büküyor, bir kare/dikdörtgen yüzey üzerine düşecek hale getiriyor. bu yüzeye "sensör" diyoruz. eskiden film diyorduk.

    sensör yüzeyinde, elektronikçilerin "fotovoltaik" dedikleri transistörler var. * bu transistörlerin her biri üzerine, farklı ışık dalgaları çarptığında, farklı voltaj değerleri üretiyorlar. işin bu kısmı biraz kimya ve fizikle ilgili. temelde olan şey, bazı elektronların hareket etmesi, bu bağlamda akım ve gerilim üretmesinden ibaret. bu voltaj değerleri, bu aşamada anlamsız sayılabilir. ancak bir işlemci sayesinde "dijital hale" yani 1 ve 0'lara dönüşüyorlar. dönüştürülmeyen versiyonlarına da güneş paneli diyoruz.

    örneğin 0,03 voltuk bir değerin hangi renk ve ışığa karşılık geldiği bir dosya içerisinde hücrelere, ikili sistem kullanılarak kaydediliyor. tüm bu değerleri birleştirince de tek bir dosyaya erişiyorsunuz.

    bu süreçlerin nasıl işlediğini merak ederseniz internette "codec nedir?" aramasıyla bilgilenebilirsiniz.

    mikrofonunuzda da yine, seslerin yarattığı titreşimler, farklı bir sensörle önce voltaj değerine, sonrasındaysa "dijital hale" dönüştürülüyor. metin yazılması ise doğrudan "dijital halde" olan ürünlerden.

    tam bu noktada hayal etmeniz gereken şey devasa büyüklükte bir excel tablosu. en üst satırdan başlayarak, her bir hücrede 1 ya da 0'ların olduğu, içerisinde yazı barındırmayan bir tablo. kocaman bir duvara sıra sıra ve alt alta yazılmış gibi de hayal edebiliriz.

    işte siz; bilgisayarınız, telefonunuz, mp3 çalarınız ya da e-kitap okuyucunuzda, çektiğiniz fotoğrafı, kaydettiğiniz sesi, yazılı metni görüntülemek ya da duymak istediğinizde bu "dijital" dosyalar bu sefer tersi yöne doğru çözülüp size iletiliyor.

    fotoğraf dosyası, ekranın hangi alanı aydınlık, hangisi karanlık, renkler neler gibi bilgileri içeriyor. çünkü dosya dijitale dönüştürüldü, ses dosyası, hoparlörünüzün diyaframının hangi frekanslarda hareket etmesi gerektiğini, metin dosyası ise hangi harflerin gösterileceğini cihaza iletiyor.

    işte deep fake, midjourney, chat gpt gibi ürünlerin tamamı, bu dosyaları, taklit ederek, oluşturmaya çalışan algoritmalar. bu sistemlere sayısı en az milyonlarla ifade edilebilecek dosyalar yükleniyor. fotoğraflar, yazılı metinler ve daha nicesi.

    bu ürünlere bir istek gönderdiğinizde, aslında daha önce yüklenmiş dosyaların ortak noktalarını bulup, bir benzerini yaratmasını istiyorsunuz.

    örneğin, elinizde bir milyon adet kedi fotoğrafınız olsun. bu fotoğrafların dijital dosyaları, matematiksel olarak mutlaka benzerlikler, tekrar eden düzenler ya da özel dosya alanları taşıyor. bu özellikleri ya da ortaklıkları tek tek inceleyerek sizin bulmanız olanaksız. her bir dosya, görsel olarak zaten anlaşılmaz haldeyken, bir de diğer dosyalarla karşılaştırmak mümkün değil.

    mümkün olan şey, bu özellikleri bir bilgisayara kontrol ettirmek. bu kontrolü bilgisayara nasıl yapacağını söylemek de işin tasarım tarafında. örneğin tabloların sütun ve satırlarında hangi yönde kontrol sağlanmalı? tekrar eden bir düzen varsa bunu hangi büyüklüğe kadar tekrar ediyor kabul edebiliriz? eğer bazı satırlar birbirinin aynısıysa bu bir ortak özellik mi yoksa tesadüf mü?

    yazıdan fotoğraf yaratan yapay zeka uygulamalarından "midjourney"e ya da bir benzerine; "astronot fotoğrafı yarat" gibi bir komut gönderdiğinizde arka planda tüm "astronot" olarak işaretlenen dijital dosyaları çağırıyor oluyorsunuz. yalnız bu, daha önce sisteme yüklenmiş 1 adet astronot fotoğrafı görmeniz anlamına gelmiyor.

    daha önce dijital hale gelmiş tüm astronot fotoğraflarındaki ortaklıklar yeni bir dosya içerisinde taklit ediliyor. kısacası, sistem "astronot"un neye benzediğini dijital olarak biliyor. mümkün olduğunca daha önce yüklenenlere yakın yeni bir taklit ortaya çıkarıyor. bunu yaparken yazdığınız içeriğe denk gelen başka parçalar varsa onları da eklemeye çalışıyor.

    yüklenen dosyaların sayısı, dosyalar arasındaki ortaklıkların kontrol edilmesine dair matematik ifadeler ve işlemcilerin hızları arttıkça, taklitler de giderek daha "gerçek" ve asıl önemlisi "ulaşılabilir" hale geliyor.

    yakın zamana kadar bu dosyaları insanlar hep "sensörden dijitale" doğru yarattı. tersi yönde bir yaratım, yeterince işlemci gücüyle, teorize edilen ancak verim alınmayan bir araştırma konusuydu. son 5 yılda ise hem işlemcilerin çok güçlü hale gelmesi, hem de çok kolay erişilir olması, dijital taklit için de alan yarattı.

    peki biz "taklit" bir dosyayı nasıl anlarız?

    öncelikle metinlerle, chatgpt'den başlayalım.

    bilmeniz gereken en önemli nokta bu modelin her seferinde, bir sonraki kelimeyi tahmin ediyor olmasıdır. yani bir öykü anlatmaya başladığında, öykünün sonunu bilmeden, her seferinde 1 kelime ekleyerek ilerliyor. telefonunuzdaki klavye uygulamasının siz yazdıkça, kelimeler önermesini örnek gösterebiliriz, ancak telefonunuzda yapılan kelime tahmini 3-4 farklı değişkene dayanıyorsa, bu modelde belki milyonlarca değişken aynı anda kontrol ediliyor.

    chatgpt modellerinin yazdığı fıkraların komik olmamasının sebeplerinden biri de bu. fıkranın sonunu bilmeden başladığı için asıl vurucu yere geldiğinde, herhangi bir normal metne devam ediyor gibi hissettiriyor. günlük hayatınızda okuyan, içerik kovalayan biriyseniz bunu zaten hissetmişsinizdir.

    buradan hareketle en net göstergelerden birisi, sonu havada kalan ya da garip hissettiren cümleler olacaktır. pekişmesi adına, aşağıda, chatgpt nin 4.0 modelinin "istanbul'u anlat" komutuna cevabı içerisinden aldığım bir paragraf ekledim;

    "kısacası, istanbul tarihi ve kültürel zenginlikleri, güzel manzaraları, canlı sosyal yaşamı ve modern imkanlarıyla büyüleyici ve çekici bir şehirdir. hem turistler hem de yerel halk için çok şey sunan istanbul, dünya çapında popüler bir seyahat destinasyonudur."

    özellikle "ve" bağlacının kullanımına baktığınızda, gariplik hemen fakedilmese de hissediliyor. bu; "büyüleyici ve çekici" ya da "sosyal yaşamı ve modern imkanlarıyla" gibi kalıpların, özellikle ingilizce metinlerde, sık sık kullanılıyor olmasından kaynaklanıyor. beslendiği içeriği taklit eden sistem, bu içeriklerdeki öğeleri de elbette taklit ediyor.

    dolayısıyla sık kullanılan kalıpların, cümleleri havada bırakması ya da yavan hissettirmesiyle karşı karşıya kalıyorsunuz. bu durumlarda gpt içeriğinden şüphelenebilirsiniz. bunu son 1 yılda özellikle haber siteleri ya da düzenli bültenlerde, içeriklerde de sıkça görmeye başladınız.

    ingilizce içerikler olduğunda ise bu his, bizim gibi ikinci dil olarak ingilizce bilenler için neredeyse kayboluyor. çok hakim olmadığınız bir dil değilse, gerçek bir insanın yazdığı metinden, yapay metinleri ayırt etmeniz hemen hemen imkansız. senelerdir yurtdışında yaşayan ve gün içerisinde de çoğu saat ingilizce konuşan birisi olarak benim çok nadiren gördüğüm gariplikler amerikalı ya da ingiliz arkadaşlarıma daha görünür oluyor.

    peki ya sahte bir fotoğrafı nasıl anlarım?

    bunu anlamak, metinlere göre daha kolay. eğer bir insana bakıyorsanız, ellere bakmak önemli. parmak sayısı internette de çok alay konusu oldu ama her gün daha iyiye gidiyor, dolayısıyla benim önerim eklemlere bakmak. eklemlerin garip yönlere bükülmesi, olması gerekenden az ya da çok eklem görmeniz en net işaretlerden.

    gözlük, küpe, kolye, saat gibi aksesuarların kenar ve köşeleri ise ikinci önemli parça. bu aksesuarları içeren temel fotoğraflarda ya ışık ya da netlik konusunda detay sorunlar olduğundan, fotoğraf çıktılarında da sık sık garipliklerle karşılaşıyorsunuz.

    bu bağlamda kadınların gece kıyafetlerinin özellikle etek kısımları ya da varsa yırtmaçlı bacak dekolteleri de yapay olarak her zaman iyi görünmeyen şeylerden. dökümlü kumaşlar ve yırtmaçlar renkler arasındaki geçişleri çok düzensiz hale getirdiğinden olsa gerek, yapay zeka çoğu zaman onu da beceremiyor.

    eğer bir manzara fotoğrafı ya da hayvanlar gibi, insan barındırmayan bir içeriğe bakıyorsanız ilk olarak gölgelerin yönü ve eğer bir yerden ışık yansıyorsa bu ışığın yansıdığı yönleri kontrol edin. örneğin gün batımında duran bir kaç kedinin gölgeleri tam olarak aynı açıda değilse, ya da bir camdan yansıyan güneş olmasına rağmen, gölgeler size doğruysa yapay zeka üretimi bir içeriğe bakıyor olabilirsiniz.

    tabi elbette, bu sorunlar da gün geçtikçe iyiye gidiyor.

    peki ses dosyaları?

    tiktok ya da ınstagram'da bilgisayarların okuduğu metinlere denk geldiyseniz bu içeriklerin en kolay anlaşılabilecek içerikler olduğunu biliyorsunuzdur. vurgu tonlamalar, cümle içindeki es verilen yerler, duygu durum değişikliğinin sıfır olması gibi net göstergeler doğrudan anlaşılıyor.

    önerim, özellikle çok kısa ses kayıtlarından şüphelenmeniz yönünde. 10 - 15 saniye ve bir kaç cümle, bu vurgu tonlamaları anlamanız için yeterli olmayabilir. içerik uzadıkça, tekdüzelik çok daha net olarak kendini belli ediyor.

    peki bu vurgu tonlamalar da taklit edilemez mi? elbette edilebilir. keza metinden sese bir içerik dönüştürmekle, var olan bir sesin yalnızca tınısını değiştirmek arasında fark var. dolayısıyla vurgu tonlama giderek daha az güvenilir bir özellik haline geliyor.

    eğer bir kişi, kendi ses kaydının tınısını değiştirerek, ünlü birine sesini benzetmeye çalışıyorsa, yeterince emek harcayarak birebir aynı sesi elde edebilir. bu durumda ise, taklit edilen kişinin kendine has vurgu ve tonlamalarına dikkat edebilirsiniz.

    çok bariz bir örnek olarak, tayyip erdoğan'ın "bay kemal" deyişini düşünebilirsiniz. bu ve benzeri karakteristik kalıplar, başkası söylediğinde, ses tonu tutsa bile gerçek dışı hissetirecektir. ifadenin cümlenin neresinde kullanıldığı, önünde ya da arkasında ne kadar boşluk olduğu gibi özellikler, doğrudan bilmeseniz bile içgüdüsel olarak aşina olduğunu şeyler. dikkatli davranırsanız, aklınız zaten size bir gariplik olduğunu söyleyecektir.

    son olarak video işine ya da deepfake'e değinelim.

    buraya kadar okuduysanız, video konusunda da sürecin aynı olduğunu, sahteliğin anlaşılması için eller, ses tonu gibi şeylerden yararlanabileceğinizi düşünüyor olabilirsiniz. nispeten haklısınız ancak konu orada bitmiyor.

    bu videolar bir kaç farklı biçimde yapılıyor. sıfırdan, hiç başlangıç içeriği olmadan yaratılan videolar, yukarıdaki elementlerle, hızlıca anlaşılsa da, asıl tehlike, prodüksiyonlu şekilde çekilen bir videodaki kişinin yüzü ya da sesinin değiştirilmesi ile elde edilen videolar.

    eğer bir iphone sahibiyseniz, fotoğraflarınızdan objeleri, insanları tek tıkla nasıl kesebildiğinizi biliyorsunuzdur. yanlış bilmiyorsam geçtiğimiz yıl google da benzeri bir özelliği sunmaya başladı. işte bu teknoloji, deepfake denilen şeyin aslında en temelini oluşturuyor. siz fotoğrafta bir insan ya da objeye, parmağınızla basılı tuttuğunuzda ilk kontrol edilen şey, bu alanda tanımlanabilecek bir obje olup olmadığı.

    bir çok kişi bu işlemin, renk sınırları üzerinden yürüdüğünü düşünüyor, kısmen doğru olsada sonuca katkısı çok az. üzerinde parmağınızı tuttuğunuz noktadan dışarıya doğru ve aynı anda fotoğrafın tümü, içerisindeki objeler doğrudan isimlendirilerek ayrıştırılıyor.

    yukarıda kedi fotoğrafları örneğini vermiştim. burada da eğer fotoğraftaki bir kediye parmağınızla dokunursanız, fotoğrafın dijital dosyasında, bu alandaki kedi özellikli dilimleri ayırt ediyorsunuz. daha doğrusu telefonunuz zaten ayırt edilmiş bu alanı sizin için seçiyor.

    şimdi bunu 10 saniyelik bir video içerisinde kullanmak istediğimizi düşünelim. elimizdeki videoda bir kedi miyavlıyor olsun. saniyede 30 kare gösterilen bu videodaki her bir kareden kediyi silip, yerine başka bir videodan kesilmiş, bir köpeği yapıştırmak yalnızca zaman alan bir işlem olacaktır. yani yeterince emekle, siz de deepfake yapabilirsiniz.

    bu şekilde zaten var olan bir videodaki bir yüzü, bir objeyi, bir bayrağı, aynı açıdan görünen bir başka yüz, obje, bayrakla değiştirmek de yine yalnızca zaman alan bir işlem. ınstagram filtrelerinin yüzleri nasıl değiştirdiğini biliyorsunuz. bu teknolojinin en basit biçimlerinden biri de aslında onlar.

    bunun üzerine iyi taklit edilmiş bir de ses dosyası eklediğinizde gerçeğinden ayırt etmesi neredeyse imkansız bir içerik elde etmiş oluyorsunuz.

    bu sahte içeriklerin ayırt edilmesi çoğunlukla ses kanalıyla oluyor. ağız hareketlerinin tam olarak uyuşmaması bir "dublaj" hissi yaratıyor. buna karşılık, yüz ifadeleri ile vurgu tonlamaların uyuşmadığı yerler de yine basit işaretlerden.

    çok sakince gelen bir ses tonuna karşılık, kaşları çatık bir yüz ifadesi hemen ayırt edilebilir.

    bu ayrımları tek seferde yapamayabilirsiniz, dolayısıyla şüphelendiğiniz videoyu bir kaç kere izlemenizi önerebilirim. hatta gözleriniz kapalı şekilde yalnızca sesi dinlemek de size fikir verebilir.

    gelelim benim şahsi görüşlerime;

    aranızda öğretmenler ya da yöneticiler varsa "ödevlerde/işlerde bunu nası yakalayacağız?" diye düşünüyor olabilir. bu kişilere tavsiyem, bakış açılarını değiştimeleri yönünde. yapay zeka siz kabul etmeseniz de artık her yerde, doğru olan onlardan uzaklaşmak değil, zira bu mümkün olmayacak. içeriğin hangi araçla yaratıldığını boşverip, kalitesine odaklanmanızı öneririm. sizi korkutmasına izin vermek yerine, bu araçları en iyi şekilde kullanabilirseniz çok daha verimli, hızlı süreçler yaratmanız işten bile değil.

    eğer gazetecilik, sosyal bilimler, kamu ya da kamu güvenliği gibi, gerçeğe erişmenin önemli olduğu alanlarında çalışıyorsanız, “gözümle görmem lazım” ifadesini artık unutun. bir şeyi görmeniz, duymanız dahi gerçeğe eriştiğiniz anlamına gelmiyor. bu eskiden de mümkün olan ancak çokça emek gerektiren bir taklit işiydi. şu anda basit bir bilgisayarla dahi şişme montlu papa görseli yapmak 10 dakika sürmüyor.

    eğer “gerçek” sizin için samimi bir kaygıysa, içgüdüsel reflekslerinizi bir kenara koymalısınız. bir görsel, bir video, bir ses kaydı kolaylıkla infial yaratabilir ancak eğer sahteyse, mutlaka ortaya çıkacaktır. özellikle sansasyon yaratmaya çok müsait içeriklerde biraz mantığıyla hareket eden birisi, biraz bilginin üzerinde beklemeye çalışmalı.

    son olarak başka bir kaç entryde daha yazdığım bir fikrimi yeniden yazmam gerektiğini hissediyorum;

    dünya artık bilginin ne olduğu, nasıl öğretileceği, nasıl paylaşılacağı konusunda 30-40 yıl öncesine göre bambaşka bir yerde. geldiğimiz noktada mevcut eğitim sistemlerinin, basit düşünce kalıplarının maalesef bir geçerliliği ya da sürdürülebilirliği kalmadı.

    bir çocuğun verimli bir biçimde her bilgiyi öğrenebilmesi neredeyse imkansız. dolayısıyla artık insanlığı odağı bilgi felsefesi yönünde olmak zorunda.

    doğrudan bilgiyi edinmek yerine, bilgiye erişmek ve o bilgiden verim alabilmek üzerine kurulu bir düzene tüm dünyanın acilen ihtiyacı var.

    önümüzdeki 1-2 yıl içerisinde yukarıda yazdıklarımın da herhangi bir geçerliliği almayacak. bu kadar hızlı değişen bir dünyada “ödevi gptyle yapanı bırakırım” demek matbaayı yasaklamaktan farksız.

    korkmayın, üstüne koşun.
  • geçenlerde reddit'te bir posta denk geldim, bir kızcağız annesine doğum günü hediyesi olsun diye dedesinin deep fake bir videosunu yapıp annesine göstermiş. dede yani kızın annesi 16 yaşındayken bir trafik kazasında, 50 yaşında ölmüş.

    kız annesinin çok mutlu olacağını düşünerek yapmış bu jest'i ve elbette anne bir anda dağılmış hatta kızıyla iletişimi bile kesmiş uzun bir süre. postu giren diğer kardeş de bu durumu nasıl yönetebileceğini soruyor özetle.

    ilk başta çok da uç bir şey gibi gelmedi bana bu konu ama yanıt verenleri okudukça böyle bir şeyi görmenin ne kadar travmatik bir durum olabileceğini fark ettim. hayat boyu özlemini içinde taşıdığınız bir yakınınızı bir anda hareketli bir videoda görüyorsunuz, videodaki kişi hem aynı o hem de o değil. çok kafa karıştırıcı, ne hissedeceğinizi kolay kolay netleştiremeyeceğiniz acı, korku ve tiksinme arası bir duygu muhtemelen.

    cevap veren bazı kişiler, durumu ölen yakınınızın cansız bedeninin bir kuklacı tarafından oynatılması ihtimaline benzetmişler durumu, gerçekten de çok farklı olmamalı iki durumun izleyendeki hissiyat anlamındaki koşutluğu.

    geliştirilen hemen her yeni teknolojinin er ya da geç insanlığın gelişimine katkı sunacağını düşünen bir kişi olarak, özellikle bu tip yapay zeka işlerinde "handle with care" yaklaşımından uzaklaşmamak gerektiğini biraz daha içselleştirerek uzaklaştım ilgili posttan. göçüp gitmiş bazı yakınlarımı o şekilde görmek düşüncesi hala içimi ürpertiyordu o sırada.

    edit:
    öncelikle soran çok olduğu için linki de vereyim, oradan da takip edilebilir hem ana post hem de update: link

    gui de souza'nın mesajıyla öğrendim ki bu bahsedilen için bir kavram zaten varmış ve adına da uncanny valley deniyormuş, reddit postuna yapılan bazı yorumlarda da bahsedilmişti ama merak edip araştırmamıştım mesaj gelene kadar.
  • ileride bu teknolojinin sinema sektörü için geleceği noktalardan biri de bu olabilir:

    -film seç ( terminatör seçildi )
    -oyuncu seçimi yap (terminatör rolünde vin diesel seçildi, sarah connor rolünde brie larson seçildi, diğer oyuncu seçimleri default olarak seçildi, oyuncu yaşları default olarak seçildi )
    -filmi başlat
  • deepfake’in ürkütücü yanları var ama sinema sektörü açısından müthiş bir buluş olabilir. şöyle ki ölmüş bir oyuncu yeni bir filmde deepfake sayesinde oynatılabilir, ya da hiç varolmayan bir karakteri sinema dünyasına kazandırabilir. evet gerçek değil fakat büyüleci! hatta belki de varolmayan oyuncular oskar bile kazanır.
  • sinema tarafından bir süredir kullanılan teknolojinin ayağa düşmesi olayı. *

    reddit'in deepfakes isminde ünlenen redditor'u örnek gösterilebilir.

    mesela black swan filminde kuğu gibi dans eden kızın ufacık tefecik natalie portman olamayacağını tahmin edersiniz. heh işte , profesyonel baletin yüzünü çıkarıp natalie'yi ekliyorlar.

    işin garip tarafı , bu teknoloji çok hızlı ilerliyor * ve hakkını veren birisi yaptığında gerçek olmadığını anlamak imkansızlaşıyor.

    güzel bir örneği burada görülebilir.

    edit: burada da bir videonun deepfake olup olmadığının nasıl anlaşılabileceğinden bahsedilmiş.
  • bu nedir yahu?
    bill hader'in tom cruise'u taklit ettigi anlarda yapilan deepfake inanilmaz.

    gorselligin her sey oldugu bir dunyada, oyle bir yere gidiyoruz ki, ortaligin karismamasi mumkun degil
  • politikacilarin rahatlikla her pisligi yapip videolari ortaya ciktiginda "deep fake yav buna inananin aklina sasarim" diyerekten kullanacaklari bir sey ne yazik ki.
  • bu olay bütün oyunu değiştirdi. devrimsel bir şey. bildiğiniz ileride bütün ölen aktörlerin yüzleriyle filmler yapacaklar resmen.

    onun dışında gerçek diye bir şey hiç kalmayacak artık. hiçbir şeye inanamayacaksınız artık. bir olay olacak yüzleri değiştirecekler millet gaza gelecek falan. insanlara karşı tehdit unsuru olarak kullanılacak. yani hayal edebildiğiniz her şey. çok korkutucu.
  • 3d, vr, 4k vb. birçok teknolojide olduğu gibi bu sektörün de lokomotifi porno endüstrisi olacaktır.
  • black mirror etkisi yaratan teknoloji.
hesabın var mı? giriş yap