İndeksleme ve anahtar kelime sıralama teknikleri yeniden gözden geçirildi: 20 yıl sonra
Yayınlanan: 2022-08-04SEO endüstrisi haline gelecek olan meşe palamudu büyümeye başladığında, arama motorlarında indeksleme ve sıralama tamamen anahtar kelimelere dayanıyordu.
Arama motoru, bir sorgudaki anahtar kelimeleri, bir web sayfasında görünen anahtar kelimelere paralel olarak dizinindeki anahtar kelimelerle eşleştirir.
En yüksek alaka puanına sahip sayfalar, en popüler üç alma tekniğinden biri kullanılarak sıralanır:
- Boole Modeli
- Olasılık Modeli
- Vektör Uzay Modeli
Vektör uzayı modeli, arama motorları için en alakalı hale geldi.
Bu makalede, o gün kullandığım klasik modelin temel ve biraz basit açıklamasını tekrar gözden geçireceğim (çünkü hala arama motoru karışımıyla alakalı).
Yol boyunca, bir web sayfasının “anahtar kelime yoğunluğu” kavramı gibi bir veya iki efsaneyi ortadan kaldıracağız. Şunu bir kereliğine yatağa koyalım.
Anahtar kelime: Bilgi biliminde en sık kullanılan kelimelerden biri; pazarlamacılara – örtülü bir gizem
"Anahtar kelime nedir?"
SEO endüstrisi ortaya çıkarken bu soruyu kaç kez duyduğumu bilemezsiniz. Ve bir açıklamanın özetini verdikten sonra, takip eden soru şu olurdu: " Peki, anahtar kelimelerim neler, Mike?"
Dürüst olmak gerekirse, bir sorguda kullanılan belirli anahtar kelimelerin arama motoru sonuçlarında karşılık gelen web sayfalarını tetikleyen şey olduğunu pazarlamacılara açıklamaya çalışmak oldukça zordu.
Ve evet, bu neredeyse kesinlikle başka bir soruyu gündeme getirecektir: "Sorgu nedir Mike?"
Bugün, anahtar kelime, sorgu, dizin, sıralama ve diğer her şey gibi terimler dijital pazarlama sözlüğünde yaygındır.
Bununla birlikte, bir SEO olarak, bu terimlerin nereden ve neden ve nasıl kullanıldığını anlamanın son derece yararlı olduğuna inanıyorum.
Bilgi alma bilimi (IR), “yapay zeka” çatı terimi altındaki bir alt kümedir. Ancak IR'nin kendisi de kütüphane ve bilgi bilimi dahil olmak üzere çeşitli alt kümelerden oluşur.
Ve bu, SEO hafıza şeridindeki gezintimin bu ikinci kısmı için başlangıç noktamız. (Kaçırmış olmanız durumunda ilk mesajım şuydu: Web'i 32 yıldır taradık: Ne değişti?)
Bu devam eden makale dizisi, 20 yıl önce SEO hakkında bir kitapta yazdığım, yıllar içinde en son teknoloji hakkında gözlemler yaparak ve bugün bulunduğumuz yerle karşılaştırarak yazdıklarıma dayanmaktadır.
Kütüphanedeki küçük yaşlı kadın
Bu nedenle, Bilgi Erişim başlığı altında kütüphane bilimi unsurlarının bulunduğunu vurguladıktan sonra, web aramasında nereye uyduklarını ilişkilendirmeme izin verin.
Görünüşe göre, kütüphaneciler esas olarak küçük yaşlı bayanlar olarak tanımlanıyor. Yıllar önce ortaya çıkan yeni “web” Bilgi Yeniden Deneme (IR) alanında önde gelen birkaç bilim insanı ile röportaj yaptığımda kesinlikle böyle görünüyordu.
WebCrawler'ın mucidi Brian Pinkerton, Google'dan önce bir numaralı arama motoru olan Alta Vista'nın Teknolojiden Sorumlu Başkan Yardımcısı ve Baş Bilim Adamı Andrei Broder ve gerçekten de Google'da Teknoloji Direktörü (ve özellikle bir numaralı Google çalışanı) Craig Silverstein ile birlikte bunların hepsini anlattılar. bu yeni alandaki çalışmaları, "kütüphanedeki küçük yaşlı kadın"ı taklit edecek bir arama motoru bulmaya çalışmaktı.
Kütüphaneler, orijinal amacı dünyadaki bilinen her hayvanı, bitkiyi ve minerali organize etmeye ve sınıflandırmaya çalışmak olan indeks kartı kavramına dayanmaktadır.
İndeks kartları, tüm kütüphane sisteminin bel kemiğini oluşturmuş, geniş ve çeşitli miktarlarda bilgiyi indekslemiştir.
Yazarın adı, kitabın başlığı, konusu ve dikkate değer “dizin terimleri” (aka, anahtar kelimeler) vb. dışında, dizin kartında kitabın yeri de bulunur. Ve bu nedenle, bir süre sonra ona belirli bir kitap hakkında soru sorduğunuzda "küçük yaşlı kadın kütüphaneci" sezgisel olarak sadece kütüphanenin bölümünü değil, muhtemelen kitabın bulunduğu rafı bile işaret edebilir ve kişiselleştirilmiş bir bilgi sağlar. hızlı alma yöntemi.
Ancak, yıllar önce yaptığım gibi arama motorlarında bu tür indeksleme sisteminin benzerliğini açıkladığımda, hala anlaşılması önemli olan bir uyarı eklemek zorunda kaldım:
"En büyük arama motorları, bir kitaplığınkine benzer şekilde dizin tabanlıdır. Web'in büyük bir bölümünü devasa dizinlerde depoladıktan sonra, ilgili belgeleri belirli bir anahtar kelime veya kelime öbeğine göre hızlı bir şekilde döndürmeleri gerekir. Ancak web sayfalarının kompozisyon, kalite ve içerik açısından çeşitliliği, ham verinin ölçeğinden bile daha büyüktür. Web'in bir bütün olarak birleştirici bir yapısı yoktur ve geleneksel metin belgeleri koleksiyonlarından çok daha geniş ve daha karmaşık yazma ve içerik tarzında muazzam bir çeşitlilik vardır. Bu, bir arama motorunun kütüphanelerde, veritabanı yönetim sistemlerinde ve bilgi erişiminde kullanılan tamamen geleneksel teknikleri uygulamasını neredeyse imkansız hale getiriyor.”
Kaçınılmaz olarak, daha sonra anahtar kelimelerde ve web için yazma şeklimizde meydana gelen şey, yeni bir iletişim alanının ortaya çıkmasıydı.
Kitapta açıkladığım gibi, HTML yeni bir dilbilimsel tür olarak görülebilir ve gelecekteki dilbilimsel çalışmalarda bu şekilde ele alınmalıdır. Bir Köprü Metni belgesinde, "düz metin" belgesinden çok daha fazlası vardır. Ve bu, belirli bir web sayfasının insanlar tarafından okunduğunda ve ayrıca metin madenciliği ve arama motorları tarafından bilgi çıkarma yoluyla analiz edilen, sınıflandırılan ve kategorize edilen metin hakkında daha fazla bilgi verir.
Bazen SEO'ların arama motorlarının "makine okuma" web sayfalarına atıfta bulunduğunu duyuyorum, ancak bu terim daha çok "yapılandırılmış veri" sistemlerinin nispeten yeni tanıtımına aittir.
Hala sık sık açıklamam gerektiği gibi, bir web sayfasını okuyan bir insan ve arama motorlarının metin madenciliği yapması ve bir sayfa "hakkında" bilgi çıkarması, insanların bir web sayfasını okuması ve arama motorlarının "yapılandırılmış verilerle beslenmesi" ile aynı şey değildir.
Bulduğum en somut örnek, "makine tarafından okunabilir" yapılandırılmış veriler eklenmiş modern bir HTML web sayfası ile modern bir pasaport arasında bir karşılaştırma yapmaktır. Pasaportunuzdaki resimli sayfaya bir göz atın ve insanların okuması için resminiz ve metninizle birlikte bir ana bölüm ve sayfanın altında, özellikle kaydırarak veya tarayarak makine okuması için oluşturulmuş ayrı bir bölüm göreceksiniz.
Özünde, modern bir web sayfası, modern bir pasaport gibi yapılandırılmıştır. İlginç bir şekilde, 20 yıl önce bu küçük factoid ile insan/makine kombinasyonuna atıfta bulundum:
"1747'de Fransız doktor ve filozof Julien Offroy de la Mettrie, fikir tarihinin en ufuk açıcı eserlerinden birini yayınladı. En iyi şekilde “insan, bir makine” olarak tercüme edilen L'HOMME MACHINE adını verdi. Çoğu zaman 'insanlar ve makineler' ifadesini duyacaksınız ve bu yapay zekanın temel fikridir."
Yapılandırılmış verilerin önemini bir önceki makalemde vurgulamıştım ve sizin için insanların okuması ile makine okuması arasındaki dengeyi anlamada son derece yardımcı olacağına inandığım bir şeyler yazmayı umuyorum. Temel bir rasyonalizasyon sağlamak için 2002'de tamamen bu şekilde basitleştirdim:
- Veri: Gerçeklerin veya fikirlerin resmi bir şekilde temsili, bir süreç tarafından iletilebilir veya manipüle edilebilir.
- Bilgi: Bir insanın, temsilinde kullanılan bilinen gelenekler aracılığıyla verilere atadığı anlam.
Öyleyse:
- Veriler, gerçekler ve makinelerle ilgilidir.
- Bilgi anlam ve insanla ilgilidir.
Bir dakikalığına metnin özelliklerinden bahsedelim ve ardından SEO endüstrisinde vektör uzay modeli olarak adlandırılan “biraz yanlış anlaşılan” (diyelim ki) bir şeyde metnin veri olarak nasıl temsil edilebileceğini ele alacağım.
Bir arama motoru dizinindeki en önemli anahtar kelimeler ve en popüler kelimeler
Zipf Yasasını hiç duydunuz mu?
Adını Harvard Dilbilim Profesörü George Kingsley Zipf'ten alan bu kitap, yazarken tanıdık sözcükleri yüksek sıklıkta kullandığımız olgusunu öngörüyor.
Zipf, yasasının insan davranışının ana belirleyicisine dayandığını söyledi: çabayı en aza indirmeye çalışmak. Bu nedenle, Zipf yasası insan üretimini içeren hemen hemen her alan için geçerlidir.
Bu, doğal dilde sıralama ve sıklık arasında sınırlı bir ilişkiye sahip olduğumuz anlamına gelir.
Çoğu büyük metin belgesi koleksiyonları benzer istatistiksel özelliklere sahiptir. Belgeleri indekslemek için kullanılan veri yapılarının etkililiğini ve verimliliğini etkilediği için bu istatistikleri bilmek faydalıdır. Birçok geri alma modeli onlara güvenir.
Yazma şeklimizde oluşum kalıpları vardır - genellikle mümkün olan en kolay, en kısa, en az ilgili, en hızlı yöntemi ararız. Gerçek şu ki, aynı basit kelimeleri tekrar tekrar kullanıyoruz.
Örnek olarak, tüm o yıllar önce, bilim adamlarının 46.500 gazete makalesinden (19 milyon dönemlik olay) 131 MB'lık bir koleksiyon (o zamanlar büyük veriydi) aldığı bir deneyden bazı istatistiklerle karşılaştım.
İşte ilk 10 kelimenin verileri ve bu tümcede kaç kez kullanıldığı. Konuyu çok çabuk anlayacaksın, sanırım:
kelime sıklığı
bu: 1130021
547311
516635'e kadar
bir 464736
390819'da
ve 387703
bu 204351
199340 için
152483
dedi 148302
Unutmayın, derlemde yer alan tüm makaleler profesyonel gazeteciler tarafından yazılmıştır. Ancak en sık kullanılan on kelimeye bakarsanız, onlardan tek bir mantıklı cümle bile çıkaramazsınız.
Bu yaygın kelimeler İngilizce dilinde çok sık geçtiğinden, arama motorları onları “durdurma kelimeleri” olarak görmezden gelecektir. Kullandığımız en popüler kelimeler otomatik bir indeksleme sistemine fazla değer katmıyorsa, hangi kelimeler sağlıyor?
Daha önce belirtildiği gibi, bilgi erişim (IR) sistemleri alanında pek çok çalışma yapılmıştır. İstatistiksel yaklaşımlar, metnin biçimsel mantıklara dayalı veri modellerine (örneğin, ilişkisel veritabanları) zayıf uyumu nedeniyle geniş çapta uygulanmıştır.
Bu nedenle, kullanıcıların ilgilendikleri belgelerde görünebilecek tam kelimeleri ve kelime kombinasyonlarını tahmin etmelerini istemek yerine, istatistiksel IR, kullanıcıların bir belgede görünmesi muhtemel bir kelime dizisini basitçe girmesine izin verir.
Sistem daha sonra hangi kelimelerin en iyi alakalı ipuçları olabileceğini belirlemek için bu kelimelerin bir metin koleksiyonunda ve tek tek belgelerdeki sıklığını dikkate alır. Her belge için içerdiği kelimelere göre bir puan hesaplanır ve en yüksek puanlı belgeler alınır.
2001'de kitap için kendim araştırırken Uluslararası İlişkiler alanında önde gelen bir araştırmacıyla röportaj yapacak kadar şanslıydım. O sıralarda Andrei Broder Alta Vista'da (şu anda Google'da Seçkin Mühendis) Baş Bilim Adamıydı ve bu konuyu tartışıyorduk. "Terim vektörleri" ve bana ne olduklarına dair basit bir açıklama yapıp yapamayacağını sordum.

Bana dizindeki önem terimlerini "ağırlıklandırırken", "of" kelimesinin tümcede milyonlarca kez geçtiğini nasıl fark edebileceğini açıkladı. Bu hiç "ağırlık" almayacak bir kelime, dedi. Ancak korpusta çok daha nadir bulunan “hemoglobin” kelimesi gibi bir şey görürse, bu biraz ağırlık alacaktır.
Endeksin nasıl oluşturulduğunu açıklamadan ve yıllardır süregelen başka bir efsaneyi ortadan kaldırmadan önce burada hızlı bir adım atmak istiyorum. Ve bu, birçok kişinin Google'ın (ve diğer arama motorlarının) aslında web sayfalarınızı indirdiğine ve onları bir sabit diskte sakladığına inandığı yerdir.
Hayır, hiç değil. Bunu yapmak için zaten bir yerimiz var, buna dünya çapında ağ deniyor.
Evet, Google, hızlı erişim için sayfanın "önbelleğe alınmış" bir anlık görüntüsünü tutar. Ancak bu sayfa içeriği değiştiğinde, sayfanın bir sonraki taranışında önbelleğe alınmış sürüm de değişir.
Bu nedenle eski web sayfalarınızın kopyalarını Google'da asla bulamazsınız. Bunun için tek gerçek kaynağınız İnternet Arşividir (diğer adıyla The Wayback Machine).
Aslında, sayfanız tarandığında temelde kaldırılır. Metin, belgeden ayrıştırılır (çıkarılır).
Her belgeye konumun ayrıntıları (URL) ile birlikte kendi tanımlayıcısı verilir ve “ham veriler” dizin oluşturucu modülüne iletilir. Sözcükler/terimler, göründükleri ilişkili belge kimliğiyle kaydedilir.
İşte 20 yıl önce oluşturduğum iki Dokümanı ve içerdikleri metni kullanan çok basit bir örnek.
Geri çağırma indeksi yapısı

Tüm belgeler ayrıştırıldıktan sonra, ters çevrilmiş dosya terimlere göre sıralanır:

Örneğimde bu, sürecin başlangıcında oldukça basit görünüyor, ancak dizine yapılan gönderiler (bilgi alma terimlerinde bilindiği gibi) her seferinde bir Dokümanda gidiyor. Yine, milyonlarca Dokümanla, bunu yukarıda önce terime göre, sonra da Doküman tarafından her terimde basitleştirilmiş olan devasa 'terim bilge görünümüne' dönüştürmek için gereken işlem gücü miktarını hayal edebilirsiniz.
Tüm bu yıllar öncesinden “milyonlarca Doküman” referansımı not edeceksiniz. Tabii ki, bugünlerde milyarlarca (hatta trilyonlarca) durumdayız. Dizinin nasıl oluşturulduğuna dair temel açıklamamda bununla devam ettim:
Her arama motoru, bir taramadan sonra keşfedilen her yeni 'terimi' içermesi gereken (bir Microsoft Word gibi bir kelime işlemci, sık sık kendi özel sözlüğünüze bir kelime ekleme seçeneğine sahip olursunuz, yani standart İngilizce sözlükte olmayan bir şey). Arama motorunun 'büyük' dizini olduğunda, bazı terimler diğerlerinden daha önemli olacaktır. Dolayısıyla her terim kendi ağırlığını (değerini) hak eder. Ağırlıklandırma faktörünün çoğu, terimin kendisine bağlıdır. Tabii ki, bunu düşündüğünüzde bu oldukça basit, bu nedenle daha fazla tekrarı olan bir kelimeye daha fazla ağırlık verilir, ancak bu ağırlık daha sonra tüm külliyat boyunca terimin 'nadirliği' ile artar. Dizin oluşturucu ayrıca Dokümanın belirli yerlerinde görünen kelimelere daha fazla 'ağırlık' verebilir. <title> başlık etiketinde geçen kelimeler çok önemlidir. Sayfada <h1> başlık etiketlerinde veya kalın <b> içinde olan kelimeler daha alakalı olabilir. HTML sayfalarındaki bağlantıların bağlantı metninde veya bunlara yakın olarak görünen kelimeler kesinlikle çok önemli olarak görülmektedir. <alt> metin etiketlerinde resimlerle birlikte görünen kelimeler, meta etiketlerde görünen kelimelerin yanı sıra not edilir.
Bilim adamı Gerard Salton (modern bilgi erişiminin babası olarak kabul edilir) tarafından yazılan orijinal “Modern Bilgi Erişimi” metninin yanı sıra, o zamanlar yukarıdakileri doğrulayan bir dizi başka kaynağım vardı. Hem Brian Pinkerton hem de Michael Maudlin (sırasıyla WebCrawler ve Lycos arama motorlarının mucitleri) bana “klasik Salton yaklaşımının” nasıl kullanıldığına dair ayrıntılar verdi. Ve ikisi de beni sınırlamalardan haberdar etti.
Sadece bu değil, Larry Page ve Sergey Brin, Google prototipinin lansmanında yazdıkları orijinal makalede de aynı şeyi vurguladılar. Başka bir efsaneyi ortadan kaldırmak için önemli olduğu için buna geri dönüyorum.
Ama önce, 2002'de “klasik Salton yaklaşımını” şu şekilde açıkladım. “Terim ağırlık çifti” referansına dikkat ettiğinizden emin olun.
Arama motoru kendi "büyük dizinini" oluşturduktan sonra, dizin oluşturucu modülü "terim yoğunluğunu" elde etmek için bir Dokümandaki kelimenin "terim sıklığını" (tf) ölçer ve ardından "ters belge frekansını" (idf) ölçer. bir belgedeki terimlerin sıklığının hesaplanmasıdır; toplam belge sayısı; terimi içeren belgelerin sayısı. Bu ilave hesaplama ile, her Doküman artık tf x idf değerlerinin bir vektörü olarak görülebilir (Dokümanın sözcüklerine doğrudan veya dolaylı olarak karşılık gelen ikili veya sayısal değerler). O zaman sahip olduğunuz şey bir terim ağırlık çiftidir. Bunu şu şekilde aktarabilirsiniz: bir belgenin ağırlıklı bir sözcük listesi vardır; bir kelimenin ağırlıklı bir belge listesi vardır (bir terim ağırlık çifti).
Vektör Uzay Modeli

Artık Dokümanlar, her terim için bir bileşene sahip vektörler olduğuna göre, tüm Dokümanların yaşadığı bir 'vektör uzayı' yaratılmıştır. Ama şimdi hepsi bu büyüklüğe sahip olan bu Dokümanlar evrenini yaratmanın faydaları nelerdir?
Bu şekilde, eğer Doc 'd' (örnek olarak) bir vektör ise, o zaman onun gibi başkalarını bulmak ve ayrıca ona yakın vektörleri bulmak kolaydır.
Sezgisel olarak, vektör uzayında birbirine yakın olan belgelerin aynı şeylerden bahsettiğini belirleyebilirsiniz. Bunu yaparak, bir arama motoru daha sonra kelimelerin veya Dokümanların kümelenmesini oluşturabilir ve diğer çeşitli ağırlıklandırma yöntemleri ekleyebilir.
Ancak, arama motorları için terim vektörleri kullanmanın temel faydası, sorgu motorunun bir sorgunun kendisini çok kısa bir Doküman olarak kabul edebilmesidir. Bu şekilde, sorgu aynı vektör uzayında bir vektör haline gelir ve sorgu motoru her bir Dokümanın kendisine olan yakınlığını ölçebilir.
Vektör Uzay Modeli, kullanıcının arama motorunu salt "sözcüksel" bir arama yerine "kavramlar" için sorgulamasına olanak tanır. Burada görebileceğiniz gibi, 20 yıl önce bile sadece anahtar kelimelerin aksine kavramlar ve konular kavramı çok fazla kullanılıyordu.
Tamam, hadi şu "anahtar kelime yoğunluğu" meselesini çözelim. "Yoğunluk" kelimesi, vektör uzay modelinin nasıl çalıştığının açıklamasında görünür, ancak yalnızca tek bir sayfa için değil, tüm belge külliyatındaki hesaplama için geçerli olduğu için. Belki de bu kadar çok SEO'nun tek sayfalarda anahtar kelime yoğunluğu analizörleri kullanmaya başlamasına neden olan bu referanstır.
Vektör uzay modelini keşfeden birçok SEO uzmanının klasik tf x idf terim ağırlığını denemeye ve uygulamaya meyilli olduğunu yıllar içinde fark ettim. Ancak, kurucular Larry Page ve Sergey Brin'in Google'ın nasıl çalıştığına dair orijinal makalelerinde belirttiği gibi, özellikle Google'da bu çok daha az olasıdır - klasik modeli tek başına uygularken sonuçların düşük kalitesini vurgularlar:
“Örneğin, standart vektör uzay modeli, hem sorgunun hem de belgenin, sözcük oluşumlarıyla tanımlanan vektörler olduğu göz önüne alındığında, sorguya en yakın olan belgeyi döndürmeye çalışır. Web'de bu strateji genellikle yalnızca sorgu artı birkaç kelimeden oluşan çok kısa belgeler döndürür."
Vektör Uzay Modelinin 'katılığını' aşmaya çalışmak için pek çok değişken olmuştur. Yıllar geçtikçe, yapay zeka ve makine öğrenimindeki gelişmelerle birlikte, dizindeki belirli kelimelerin ve belgelerin ağırlığını hesaplayabilen yaklaşımda birçok varyasyon vardır.
Bırakın Google'ı, herhangi bir arama motorunun hangi formülleri kullandığını bulmaya çalışmak için yıllarınızı harcayabilirsiniz (ancak az önce belirttiğim gibi hangisini kullanmadıklarından emin olabilirsiniz). Bu nedenle, bunu akılda tutarak, web sayfalarını oluştururken anahtar kelime yoğunluğunu değiştirmeye çalışmanın biraz boşa harcanan bir çaba olduğu efsanesini ortadan kaldırmalıdır.
Bolluk problemini çözme
İlk nesil arama motorları, sıralama için büyük ölçüde sayfa faktörlerine güveniyordu.
Ancak, tamamen anahtar kelime tabanlı sıralama tekniklerini (ilk günden beri Google hakkında az önce bahsettiğim şeyin ötesinde) kullandığınız sorun, web'in her gün katlanarak büyüdüğünü ve aynı içeriği içeren belgelerdeki üstel büyümeyi düşünen “bolluk sorunu” olarak bilinen bir şeydir. anahtar kelimeler.
Bu da 2002'den beri kullandığım slayttaki soruyu ortaya çıkarıyor:

Parçayı uzun yıllardır birçok orkestrayla birlikte düzenleyen ve çalan orkestra şefinin en yetkili kişi olduğunu varsayabilirsiniz. Ancak yalnızca anahtar kelime sıralama teknikleri üzerinde çalışmak, müzik öğrencisinin bir numaralı sonuç olması muhtemeldir.
Bu sorunu nasıl çözersiniz?
Cevap, hiper bağlantı analizidir (diğer adıyla geri bağlantılar).
Bir sonraki bölümümde “otorite” kelimesinin IR ve SEO sözlüğüne nasıl girdiğini açıklayacağım. Ayrıca şimdi EAT olarak adlandırılan şeyin asıl kaynağını ve aslında neye dayandığını açıklayacağım.
O zamana kadar – iyi olun, güvende kalın ve arama motorlarının iç işleyişini tartışmanın ne kadar keyifli olduğunu hatırlayın!
Bu makalede ifade edilen görüşler konuk yazara aittir ve mutlaka Search Engine Land değildir. Personel yazarları burada listelenir.