June 28, 2007

The CoNLL 2007 Shared Task on Dependency Parsing

Joakim Nivre, Johan Hall, Sandra Kübler, Ryan McDonald, Jens Nilsson, Sebastian Riedel and Deniz Yuret. In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL)

Abstract: The Conference on Computational Natural Language Learning features a shared task, in which participants train and test their learning systems on the same data sets. In 2007, as in 2006, the shared task has been devoted to dependency parsing, this year with both a multilingual track and a domain adaptation track. In this paper, we define the tasks of the different tracks and describe how the data sets were created from existing treebanks for ten languages. In addition, we characterize the different approaches of the participating systems, report the test results, and provide
a first analysis of these results.

Full post... Related link

June 26, 2007

Evrenin israfkarlığı

İnsan genetiği belirlendiginde ilginç bir gerçek ortaya çıktı:
Proteinleri tanımlayıp özelliklerimizi belirleyen genler DNA'nın
sadece yüzde üçünü kaplıyorlar. Bu biraz israf gibi gelmiyor mu
insana?

1. Micro-RNA'leri kodlayan DNA bölümleri de var, fakat
micro-RNA'lerin sayısı protein kodlayan genlerin sayısı ile aynı
büyüklükte gibi. Micro-RNA'lerin boyları da daha küçük olduğundan
3% hadi çıkmış olsun 10%'a. Hala bir 90% var sanki "junk" olarak.

2. Tabi bu bölge başka şeyler kodlayabilir, RNA kodlayan yerlerin
birden fazla kopyası olabilir vs. Fakat DNA'de hiç birşey
kodlamadığı belli olan uzun tekrarlayan diziler olduğunu biliyorum
(ATATATATATA) gibi. İşten anlayanlarımız bunların DNA'nın ne
kadarını kapsadığını belki bize bulabilir.

3. İşin garibi bazı bakteriler bu konuda bizden çok daha verimli
kodlama yapıyor, DNA'larının neredeyse 100%'unu kullanıyorlar
(yanlış hatırlıyorsam düzeltin). 3% rakamı insanlara ve diğer
gelişmiş hayvanlara özel.

4. Konuyla alakası yok ama bazı basit bitkilerin insanlardan çok
daha fazla gene sahip olması da ilginç değil mi?

5. Peki insan vücudunun 60% su olmasına ne demeli.

6. Ya da atomların içinin 99.9999999% boş olmasına? Katı madde
dediğimiz şeylerin büyük oranda boş olması 20. yüzyıl fiziğinin en
ilginç bulgularından biri. Eğer çekirdek bir sinek ise,
elektronlar onun etrafında futbol sahası boyunda yörüngelerde
dolaşıyorlar.

7. Son olarak eğer çok-evrenli kuantum yorumları doğru ise evren
her an neredeyse sonsuz dala ayrılmakta, bu dalların her biri
diğerleri kadar gerçek, biz ise sadece bunlardan birini
algılayabiliyoruz (tabi diğer kopyalarımız diğerlerini
algılıyorlar) diğerleri ile ancak dikkatli fizik deneyleri
sırasında etkileşebiliyoruz. Ne büyük israf demek geliyor insanın
içinden. Ama elinde sonsuz miktarda kaynak olan bir Tanrı için
israf anlamsız bir kavram olmalı :)


Full post... Related link

Düşünceleri okuyabilmek

Prague'daki Association for Computational Linguistics
konferansındayım. Açılış konuşmasını Mitch Marcus yaptı. Kendisi
"Machine Learning" alanındaki çalışmaları ve klasik ders kitabı
ile tanınır. Son zamanlarda uğraştığı işleri anlattı, ilginç
bulduğum için paylaşmak istedim:

Araştırmada beyninizi tarayan fMRI aletinin içine giriyorsunuz.
Karşınıza her on saniyede bir okumanız için bir kelime çıkıyor.
fMRI'in çektiği beyin aktivite filminizi gördüğünüz kelimelerle
ilişkilendirip daha sonra sadece beyin aktivitenizden düşündüğünüz
kelimeyi bulmaya çalışıyorlar.

İlk deneylerde iki grup kelime ile başlamışlar: araçlar
(tornavida, çekiç vs), ve yerler (ev, ofis vs). Modeller
düşündüğünüz kelimenin hangi sınıfa ait olduğunu 100% ayırt
edebiliyor. Tam olarak hangi kelimeyi düşündüğünüz konusunda şu an
performans biraz daha düşük. İnsandan insana değişmesine rağmen
70% - 95% arasında gibi sınırlı sayıda kelime kümeleri için. Daha
sonra yapılan deneyler kelime okuma yerine aynı objelerin
resimlerine bakma (performans bu durumda daha da iyi), resimlere
bakarken öğrenilen beyin aktiviteleriyle daha sonra okuduğunuz
kelimeleri tahmin etme (bu gözlenen aktivitenin tek bir modalıty'e
(yazı, ses, görüntü gibi) özel olmadığını ve gerçekten o
kavramları gösterdiğine işaret), bir insandan öğrenilen modellerle
diğer insanın ne düşündüğünü tahmin etme (performans biraz daha
düşse de hala çok fena değil), bir dilde kelimeler okuyarak
öğrenilen modellerle başka dilde düşünülen kelimeleri ayırt etme,
ilgili kelimelerden elde edilen bir modelle daha evvel görünmeyen
kelimeleri sınıflandırma vs gibi.

Tabi üç yaşından beri beyin okuma aletleri hayal eden bendeniz
için çok heyecan verici bir konuşmaydı. Türkiye'ye döner dönmez
Amerikan Hastanesine gidip fMRI aleti ile nasıl oynayabileceğimin
yollarını araştırmak istiyorum.

İşin ilginci herkes benim kadar heyecanlı değildi. Bazı
arkadaşların bu teknolojinin gideceği yerleri düşünüp çok rahatsız
olduklarını farkettim. fMRİ taşınabilir derecede küçülüp
hassasiyet düşünülen cümleleri ayırt edecek kadar artırıldığında
kafalarına aluminyum folyo sarıp dolaşmaları gerekecek.

Bense bu mahremiyet konusunda artık teslim olmuş durumdayım. Nasıl
olsa uzun vadede ümit yok, buna ne kadar erken alışırsak o kadar
iyi. İnsanlar kendi doğalarını kabul edip standartlarını ona göre
ayarlamalı. Internet trafiğinin 50% porno olacağını Tim Berners
Lee tahmin edemezdi herhalde. Ama başımıza taş yağdığı falan yok.

Bu konuda bildiğim bir David Brin ilginç birşeyler düşünüyor -
açılma güçlüler-güçsüzler, devlet-vatandaşlar vs arasında tek
yönlü olursa problem büyük. O tek yönü engelleyemeyeceğimize göre
en azından çift yönlü olması için bir kültür devrimine başlamamız
gerek. İngiltere'de sokak kameralarını izleyen karakollardaki
memurları vatandaşların da kameralarla izleyebilmesi önerisi
gibi. Neyse bu konu başka bir mesaj eder.

Bu teknolojinin beni heyecanlandıran getirileri ise saymakla
bitmez. Birincisi beyinde kavramların ve anlamların ne şekilde
saklandığı konusunda 2500 senedir herkes birşeyler atıp tutuyor,
hala en ufak bir fikrimiz yok. Önümüzdeki senelerde bu konuda
büyük ilerleme sağlanabilir. Kurzweil'in her zaman iddia ettiği
gibi Aİ'i önümüzdeki 50 yılda biz çözemesek de beyin resmetme
aletleri yeterince hassaslaştığında reverse-engineering daha kolay
bir çözüm olabilir. Daha yakın dönemde bilgisayarlar, internet,
ve hatta diğer insanlarla iletişimimiz için klavye, fare, cep
telefonu gibi gereçlere gerek kalmayabilir - beyne enjekte
edilecek küçük bir wireless internet çipi ile telepatı sonunda
gerçek olabilir. (Tabi call-waiting ve answering-machine benzeri
filtreler bu durumda daha da önem kazanıyor). Politika ve hukuk
konusundaki potansiyeller - yalan makineleri yerine sanığın
düşüncelerini okuyan bir laptop düşünün. Amerikan başkanı seçimi
kazandığında elini incile koyup standart laflar edeceğine,
seçmenler kafasını fMRİ'in içine sokup gerçekten ne düşündüğünü
öğrenmek isteyebilirler. Daha sayayım mi?

Full post... Related link

June 25, 2007

Targeted Textual Entailments - A Proposal

1. Definition: A targeted textual entailment (TTE) task uses entailment questions to test a specific competence of a system, such as word sense disambiguation, semantic relation recognition, or parsing. Even if we do not know the best theory underlying a competence, we know what having that competence enables people to do. For example:

1.1 WSD
"They had a board meeting today."
==> "They had a committee meeting today." [yes]
==> "They had a plank meeting today." [no]

1.2 SemRel
"John opened the car door."
==> "The door is part of the car." [yes]
==> "The car produced the door." [no]

1.3 Parsing
"I saw the bird using a telescope."
==> "I used a telescope" [yes]
==> "The bird used a telescope" [no]


2. Motivation: Targeted textual entailment tasks address the following issues:

2.1 Currently most shared tasks use or favor a specific inventory, representation, or linguistic theory. In WSD, WordNet is often used as the sense inventory although everybody complains about it. We have FrameNet, Propbank, Nombank, various logical formalisms and different sets of noun-noun relations people work on in the semantic relations area. The parsing community is split into a constituency group and a dependency group that rarely compare results. Formulating TTE tasks in these fields will help test systems on a level playing field no matter which inventory, presentation, or linguistic theory they use.

2.2 Large annotation efforts struggle to achieve high inter annotator agreement (ITA). My hypothesis is most annotators understand the sentences they are supposed to annotate equally well, but do not understand the formalism good enough for consistent labeling. By asking simple entailment questions where all they need to do is choose yes/no/uncertain, it is hoped that (i) no education in a particular formalism will be needed for annotators, (ii) annotation will proceed faster, and (iii) final ITA will be higher. (We throw away the examples that get a lot of "uncertain" answers).

3. Methodology: For a TTE task to be useful and challenging the examples should be chosen close to the border that separates the positives from the negatives. In other words, the positive examples should have non-trivial alternatives and the negative examples should be "near-misses". (My examples in Section 1 are not all very good according to this criteria). For example in the WSD TTE task (which is basically lexical substitution), the substitute should be chosen such that (i) it is a near-synonym for one of the target's senses, and/or (ii) it has a high probability of occuring in the given context. In the parsing task, examples should be based on decision points where a typical parser can go either way or where the n-best parses disagree. This suggests that examples can be generated automatically by taking the best automated systems of the day and focusing on decisions about which they are least confident. This type of "active learning" methodology will uncover weaknesses that the next generation systems can focus on.

Full post... Related link

June 23, 2007

KU: Word Sense Disambiguation by Substitution

Deniz Yuret. In Proceedings of the Fourth International Workshop on Semantic Evaluations (SemEval-2007)



Abstract: Data sparsity is one of the main factors that make word sense disambiguation (WSD) difficult. To overcome this problem we need to find effective ways to use resources other than sense labeled data. In this paper I describe a WSD system that uses a statistical language model based on a large unannotated corpus. The model is used to evaluate the likelihood of various substitutes for a word in a given context. These likelihoods are then used to determine the best sense for the word in novel contexts. The resulting system participated in three tasks in the SemEval 2007 workshop. The WSD of prepositions task proved to be challenging for the system, possibly illustrating some of its limitations: e.g. not all words have good substitutes. The system achieved promising results for the English lexical sample and English lexical substitution tasks.

Full post... Related link

SemEval-2007 Task 04: Classification of Semantic Relations between Nominals

Roxana Girju, Preslav Nakov, Vivi Nastase, Stan Szpakowicz, Peter Turney and Deniz Yuret. In Proceedings of the Fourth International Workshop on Semantic Evaluations (SemEval-2007)



Abstract: The NLP community has shown a renewed interest in deeper semantic analyses, among them automatic recognition of relations between pairs of words in a text. We present an evaluation task designed to provide a framework for comparing different approaches to classifying semantic relations between nominals in a sentence. This is part of SemEval, the 4th edition of the semantic evaluation event previously known as SensEval. We define the task, describe the training/test data and their creation, list the participating systems and discuss their results. There were 14 teams who submitted 15 systems.

Full post... Related link

June 03, 2007

İrade üzerine

Uzun zamandır bilinç ilintili konularda kafamı en çok kurcalayan
problem "irade" (ya da "istek", "motivasyon", "dürtü") problemi.
Sabah uyandığımızda neden hiç bir şey yapmamaktansa birşeyler
yapmayı yeğliyoruz? Davranışlarımızı üreten temel kaynak nedir?
Herhangi birşey yaptığımda "neden yaptım" diye düşünürsem, bir iki
rasyonalizasyondan sonra son cevabım "canım öyle istedi de ondan"
oluyor. Bu cevap (ya da genel olarak "canın birşey istemesi"
kavramı) sizde de derin bir beyin sansürü şüphesi yaratmıyor mu?
Eğer ben insanları kontrol etmek isteyen kötü bir uzaylı olsam,
onlara zorla birşey yaptırmaya çalışmak yerine, beyinlerinin "can
istemesi" sistemleri ile oynardım - böylece benim amaçlarımı kendi
"canları istediği" için yerine getirirler ve canlarının neyi neden
istediği konusunda bir fikre sahip olmadıkları için de varlığımdan
şüphelenmezlerdi.

Bu problemin önemi arada bir çalışma motivasyonumu yitirdiğimde
kafama dank ediyor. İnsanın "istediği" birşeyi yapmasıyla
"istemediği" birşeyi kendine zorla yaptırması arasında büyük fark
var - ortaya çıkan "davranış" Skinner'in bakışıyla ayırdedilemez
olsa da.

Geçen sene ünlü biyolog J.B.S. Haldane'nin aşağıdaki sözünü
bulunca bu konudaki merakımda yanlız olmadığımı farkettim:

"Kendi motivasyonuma dair şahsi açıklamalarımın hemen her durumda
tamamen uydurma olduğu sonucuna varmış bulunuyorum. Neyi neden
yaptığımı bilmiyorum." -- J.B.S. Haldane

İşin üzücü tarafı benim geldiğim yapay zeka kültüründe böyle bir
problemin önemi vurgulanmıyor. Klasik bir yapay zeka sisteminde
algılarla dünyanın durumu belirlenir, amaçlar doğrultusunda plan
yapılır ve bu planlar davranışa dönüştürülür. Peki amaçlar nereden
gelir? Programı yazandan tabi ki. Dolayısıyla üzerinde en az
düşünülen kısım olagelmiş motivasyon. Geçenlerde kurzweilai.net'de
modern YZ'cılardan Ben Goertzel'in kendi cognitive modeli üzerine
yazdıklarını okurken aşağıdaki paragrafı gördüm (kötü olduğu için
çevirmeye uğraşmayacağım):

"And if a system can recognize itself, it can recognize
probabilistic relationships between itself and various effects in
the world. It can recognize patterns of the form "If I do X, then
Y is likely to occur." This leads to the pattern known as will."
-- Ben Goertzel

Kısacası davranışlar ve olası sonuçları hakkındaki bilgiler ile bu
davranışların hangilerinin ne zaman ne sebeple aktive edildiği
konuları birbirine karıştırılmış.

Bu genel bir körlük bilgisayarcılar arasında belki. Düşünürseniz
dünyanın en sofistike programları vakitlerinin çoğunu sizin bir
düğmeye basmanızı bekleyerek harcıyorlar! Kendi kendine günler
boyunca ilginç birşeyler yapabilen bir program yazamadık bugüne
kadar. Örneğin Doug Lenat'ın doktora tezinde yazdığı ilginç
matematiksel varsayımları otomatik olarak keşfetmeye çalışan AM
programı toplama çıkarmadan başlayıp 1700'lerin matematiğine
birkaç saat içinde geliyordu. Yıllar boyunca matematik düşünebilen
ve ilginç şeyler bulmaya devam eden bir program yok. Uzun süre
çalışan programlarımız proteinlerin fiziksel simülasyonunu yapmak,
interneti indekslemek, uzaydan gelen mesajlarda düzen aramak gibi
monoton, kendini devamlı tekrarlayan işler yapıyorlar. Belki
istediklerimizi eksiksiz ve hatasız şekilde yerine getiren
makineler tasarlama saplantısından kurtulmadığımız sürece,
makinelerimizin bizim hayal edebildiklerimiz ötesinde birşey
yapamaması son derece doğal.

Motivasyon konusunda her ne kadar basit de olsa açıklayıcı
modeller üreten tek grup "ethology" (hayvan davranışı)
bilimi. Tinbergen, Lorenz gibi öncüler en azından basit
hayvanların neyi neden yaptığıyla ilgili mekanik modeller
geliştirmeye başlamışlar. Gallistel'in yazdığı "The Organization
of Action" kitabı uzun zamandır rafimda, bu aralar okuyup ilginç
birşeyler bulursam yazacağım.

İnsanlarda ise bu probleme yaklaşmak ve düşünmek özellikle zor,
çünkü "canım istedi" hissi öyle tatmin edici ki bunun arkasında
birşeyler olduğunu düşünmeye karşı sanki beyinde bir oto-sansür
mekanizması var.

Not: Burada aradığım açıklamanın doğasıyla ilgili bir not düşeyim.
Onur son mesajında bazı bilimsel kavramlarla dini kavramların
temelde farkı olup olmadığına değinmiş. Çok basit bir fark
var. Birini kullanarak gelecekte olacaklara dair (örneğin bir
deneyde) tutarlı tahminlerde bulunabiliyoruz, diğeriyle
bulunamıyoruz (bkz. bilim nedir tartışmamız). Benim
"açıklamak"'tan kastettiğim bu. Örneğin benim motivasyonumu bir
"ruh" modeliyle açıklamaya kalkarsak, sadece soruyu ertelemiş
oluruz - "ruh"'un motivasyonunu nasıl açıklayacağız? Üstelik
fiziksel "ben"'in motivasyonunu birgün açıklayabilme ümidimiz var
- atomlarımı açıklayan kuantumun kuralları kolay anlaşılmaz da
olsa sonuçta bağlayıcı, üstelik virgülden sonra dokuz basamağa
kadar. "Ruh"'un davranışını belirleyen bağlayıcı kurallar
bildiğim kadarıyla yok. Meteryalizm insanların körü körüne
inandığı birşey değil, sadece bu tip sorulara, aynı soruyu bir
adım öteye ertelemeden cevap vermeye çalışan tek alternatif. Neyin
"açıklama" olup neyin olmadığı konusunda iyi anlaşalım.

Full post... Related link