Abstrak
Proyek yang diusulkan akan membahas beberapa masalah mendasar dalam algoritma dan
struktur data yang efisien, mulai dari hashing pseudo-random, hingga keberadaan kamus
deterministik dengan pembaruan konstan dan waktu pencarian, hingga grafik algoritma.
Pemohon adalah tokoh terkemuka di bidang algoritme dan struktur data yang efisien.
Selama 14 tahun terakhir dia telah berada di AS di mana daerah itu memiliki benteng
pertahanannya. Hibah tersebut akan memfasilitasi kembalinya dia ke Universitas Kopenhagen
dan akan memungkinkannya untuk menciptakan pusat keunggulan mini: titik fokus baru yang
akan meningkatkan penelitian dalam algoritme dan struktur data yang efisien di Eropa.
1
Deskripsi proyek
Algoritma dan Struktur Data yang Efisien (dengan referensi ke beberapa pekerjaan saya yang
terkait) Goritma algoritma adalah salah satu bidang utama ilmu komputer, baik dalam hal
pengajaran dan penelitian. Ini relevan dengan pemrosesan data kapan pun kita membutuhkan solusi
yang dapat diskalakan, karenanya untuk banyak sains dan industri. Misalkan, kita ingin
menyelesaikan masalah yang melibatkan n variabel. Algoritme penelusuran lengkap yang sepele
mungkin mencoba semua kombinasi. Namun, meskipun setiap variabel hanya memiliki dua opsi,
terdapat 2nkombinasi, yang merupakan eksponensial, dan jika n ≥ 70, maka ini terlalu banyak
bahkan jika semua komputer dunia mengerjakannya selama setahun. Dalam algoritme kami
mencoba menemukan solusi dalamwaktu polinomial jika tidak linier d alam jumlah variabel.
Karena masalah yang cukup umum adalah NP-hard atau lebih buruk, kita harus memahami dan
memanfaatkan sifat khusus dari masalah yang dihadapi. Ambil masalah klasik seperti menyortir n
angka. Pengurutan biasanya dibutuhkan dalam pengolahan data. Algoritme naif seperti Sortir
Penyisipan mengambil satu angka pada satu waktu, memindai posisinya di antara yang sudah
kumpulan data dengan, katakanlah, n ≥ 108elemen. Di komputer saat ini, instruksi sederhana
seperti pencarian memori membutuhkan waktu sekitar 10-7detik. Algoritma kuadrat yang
menggunakan n2 instruksi akan memakan waktu lebih dari 30 tahun. Masalah tidak akan
diselesaikan oleh komputer yang lebih kuat, ini hanya akan menjadi lebih buruk: ukuran masalah
yang dianggap cenderung
2
tumbuh dengan ukuran memori yang lagi-lagi cenderung tumbuh setidaknya secepat kecepatan
prosesor . Oleh karena itu, kebutuhan akan algoritme yang lebih efisien semakin meningkat.
Komputer paralel mungkin menyimpan faktor n, tetapi masalah utamanya tetap: kita masih
membutuhkan waktu polinomial derajat rendah. Selain itu, untuk meminimalkan penundaan
komunikasi, kami tetap ingin prosesor individu melakukan sebanyak mungkin pekerjaan secara
lokal. Proposal ini mempertimbangkan hashing yang sama-sama relevan dalam pengaturan
berurutan, paralel, dan terdistribusi.
Bagian penting dari algoritme yang efisien adalah struktur data di mana fokusnya adalah pada
bagaimana kita dapat merepresentasikan informasi secara efisien. Peramal jarak planar dari kertas
yang saya pilih [43] adalah contoh yang baik di mana saya mengurangi ruang yang dibutuhkan
mendukung perubahan secara efisien, misalnya, dalam antrian prioritas [48], kami dapat
memasukkan angka dan mengekstrak minimum. Antrian prioritas digunakan baik secara langsung
maupun di dalam banyak algoritma greedy, misalnya, untuk mempercepat jalur terpendek dalam
grafik terarah. Algoritma grafik dinamis dari [26] dapat mempertahankan jembatan dalam grafik
dinamis, dan ini telah menghasilkan implementasi yang efisien dari bukti induktif klasik dalam
teori pencocokan. Salah satu struktur data yang paling mendasar adalah kamus atau tabel hash yang
memungkinkan kita menyimpan dan mencari informasi yang terkait dengan kunci. Masalahnya
adalah hambatan bagi berbagai jenis analisis data termasuk pemrosesan aliran data volume tinggi.
Ini juga membentuk lingkaran dalam dari banyak algoritma. Masalahnya telah menjadi pusat
komputasi selama kita memiliki komputer (makalah saya [2, 38, 52, 53] mengikuti jalur pekerjaan
ini). Studi tentang algoritme dan struktur data yang efisien (tidak hanya polinomial) telah lama
menjadi tradisi yang membanggakan dalam ilmu komputer termasuk penghargaan Turing dari
Knuth, Hopcroft, dan Tarjan.
Akhirnya perlu diketahui bahwa teori bukanlah praktek, tetapi teori dapat memberikan dasar
yang besar untuk praktek. Para pendiri Google berasal dari latar belakang teori / matematika.
Mahasiswa saya, Stephen Alstrup, start-up Octoshape adalah contoh bagus lainnya, dan saya
berharap Stephen akan bergabung dengan University of Copen hagen untuk mempromosikan
start-up. Saya sendiri mendapat AT&T Fellow Honor untuk dampak teknologi saya (bagian dari
pekerjaan AT&T saya adalah berkonsultasi tentang penerapan teori dalam proyek praktis yang
konkret, misalnya, pengenalan suara, perutean lalu lintas Internet, manajemen, dan analisis,
nirkabel termasuk iPhone, dll.) .
Tujuan untuk pemahaman teknis Algoritma mencoba untuk memahami bagaimana kita dapat
memecahkan masalah komputasi secara paling efisien. Seseorang dapat membedakan antara dua
jenis kontribusi. Kami memiliki pelopor masalah yang memperluas bidang mengidentifikasi jenis
masalah baru, dan kami memiliki perintis teknis seperti saya yang mencoba memperdalam bidang
tersebut, mengembangkan teknik baru yang ampuh untuk memecahkan masalah. Kedua belah
pihak berada dalam interaksi yang dinamis. Ketika masalah baru teridentifikasi,
3
tugas pertama adalah memahami bagaimana masalah tersebut dapat diatasi dengan teknik yang
ada. Ini juga memberi kita pemahaman yang lebih baik tentang luasnya teknik ini. Jika teknik yang
ada tidak memberikan solusi yang memuaskan dan jika masalah memiliki relevansi yang bertahan
lama, maka pemecah masalah ditantang untuk mengembangkan teknik baru yang ampuh yang
nantinya dapat diterapkan oleh perintis masalah ke masalah yang lebih baru. Analog yang baik
adalah pengobatan, memikirkan masalah sebagai penyakit dan algoritme sebagai pengobatan.
Mempelajari penyakit baru seperti flu burung itu penting, tetapi begitu juga pengobatan baru untuk
penyakit lama seperti kanker. Jika tujuan Anda adalah untuk mengobati orang, mungkin kurang
penting apa sebenarnya penyakit itu. Faktanya, harapan besar adalah menemukan pengobatan yang
berhasil untuk berbagai jenis penyakit. Struktur data adalah contoh bagus dari keumuman ini
karena kami fokus pada kotak hitam yang membantu dalam algoritme menangani banyak masalah
berbeda.
Batas kemampuan teknis kita sering kali paling baik dilihat dalam masalah-masalah yang
terkenal penting tetapi di mana teknik-teknik yang ada telah habis tanpa solusi yang memuaskan
yang terlihat. Saat itulah kami tahu bahwa ide-ide teknis orisinal dibutuhkan. Untuk
mengilustrasikan jenis penelitian yang saya tuju, izinkan saya mengutip laporan wasit pada
makalah pilihan saya "Oracle kompak untuk jangkauan dan perkiraan jarak dalam digraf planar"
[43]: Makalah ini membahas masalah membangun struktur data untuk planar diarahkan statis
grafik yang mendukung kueri keterjangkauan dan perkiraan jarak. Untuk kueri keterjangkauan
[apakah ada jalur yang diarahkan dari satu simpul ke simpul lain] penulis mencapai O(1) waktu
dengan spasi O(nlogn) . Sebelumnya tidak ada struktur data yang diketahui dengan kueri waktu
konstan dan menggunakan o(n2) spasi! Struktur data untuk perkiraan jarak adalah generalisasi
dari struktur data keterjangkauan. Kontribusi teknis utama dari makalah ini terkandung dalam
hasil jangkauan (dekomposisi grafik planar menjadi satu set grafik 2-lapis dan dekomposisi dipath
ini; sangat sederhana!). Masalah yang dipertimbangkan sebelumnya telah dipelajari secara
intensif oleh banyak penulis, tetapi makalah ini adalah yang pertama membuat kemajuan penting
pada masalah tersebut. Saya menganggap hasil makalah sebagai hasil terobosan. Perhatikan
bahwa kesederhanaan adalah kebajikan. Umumnya kami lebih suka bukti sederhana, dan sangat
penting bahwa algoritme sederhana jika kami mengharapkan dampak praktis.
Pada dasarnya, fokus saya lebih pada solusi daripada masalah. Yang benar-benar
menggairahkan saya adalah teknik elegan sederhana baru dengan kekuatan untuk memecahkan
masalah penting. Kriteria terakhir berarti bahwa titik awal saya selalu merupakan masalah penting
(masih relevan) di luar kemampuan kita saat ini. Masalahnya sendiri bukan satu-satunya target.
Harapannya adalah untuk solusi / teknik yang mengejutkan dan kuat dengan dampak potensial di
luar masalah yang dipertimbangkan. Fokus pada solusi dan pemahaman teknis inilah yang telah
membawa saya pada terobosan yang mencakup matematika murni [33],
4
hingga teori [26, 50, 43, 47, 48, 44, 38, 39] hingga praktik [15, 16, 20, 38] (lihat [19] untuk konteks
[20]).
Rencana, kelayakan, dan kebaruan Untuk jenis penelitian saya, kebaruan dan kelayakan tidak
ditemukan dalam rencana dan pendekatan awal. Ini adalah penelitian teoritis dasar yang mencari
teknik baru, mengejutkan, sederhana, dan kuat. Kelayakan dari tujuan ini dapat ditemukan dalam
pendekatan dan keterampilan umum, sebagaimana didokumentasikan oleh rekam jejak saya.
Masalah ini diilustrasikan dengan baik oleh kutipan berikut dari laporan wasit ahli di makalah saya
"minimum kPemotongan-waydari ukuran terbatas adalah parameter tetap dapat diatur" dengan
Kawarabayashi [29]: Teknik yang digunakan dalam algoritme sangat cerdik dan tidak pernah
digunakan untuk masalah pemotongan berparameter. Makalah ini benar-benar dasar dan mandiri
(khususnya, tidak ada alat dari teori minor grafik yang digunakan). Faktanya, makalah pada
dasarnya tidak berisi bukti: begitu mereka menjelaskan algoritme, semuanya jelas! Ini tidak berarti
bahwa algoritme itu sepele: idenya sangat tidak wajar dan tidak jelas pada awalnya mengapa
pendekatan ini harus bekerja sama sekali, tetapi tampaknya berhasil. Memiliki bukti "sederhana"
seperti itu harus dianggap sebagai nilai tambah yang besar. Intinya di sini adalah bahwa
pendekatan sukses novel itu tidak wajar bagi ahli (saya bukan ahli tetapi memiliki inspirasi segar
dari luar), jadi bahkan jika saya memasukkannya ke dalam rencana proyek, maka itu tidak akan
terlihat layak. Faktanya, karena tekniknya sederhana, jika itu alami, maka itu akan ditemukan sejak
lama. Selain itu, kami mencoba banyak pendekatan baru sebelum kami berhasil. Secara lebih
umum, persyaratan dasar untuk penelitian tingkat STOC / FOCS adalah bahwa masalahnya harus
penting dan tekniknya mengejutkan. Karena itu, kami mencari ide yang sangat kuat, tetapi ide yang
tidak dapat Anda rencanakan. Banyak ide dikembangkan, dicoba, dan gagal sebagai solusi untuk
menyelesaikan masalah. Ketika pertama kali Anda memiliki ide yang benar, seringkali tidak butuh
waktu lama untuk memeriksa apakah ide tersebut berhasil. Sebelum Anda membuktikan bahwa
sebuah ide berhasil, Anda tidak tahu apakah Anda berada di jalur yang benar. Akhirnya, dengan
target yang ambisius, ada kemungkinan yang sangat bagus bahwa masalahnya akan menjadi terlalu
sulit, jika bukan tidak mungkin. Dengan demikian, tetap fokus pada satu target ambisius sangat
berisiko.
Pendekatan umum fleksibel yang layak Strategi penelitian saya tidak unik tetapi juga dimiliki
oleh banyak peneliti yang sukses dalam teori. Berjuang untuk kesempurnaan, saya sering
membidik target yang ambisius dengan risiko kegagalan yang signifikan. Untuk membuatnya layak
secara statistik, saya mengerjakan beberapa target yang ambisius. Hal ini dimungkinkan karena
tidak ada investasi nyata yang terkait dengan penelitian ini pada target tertentu (tidak ada
pengaturan eksperimental yang mahal): jika Anda terjebak pada satu target, dan target lainnya lebih
menjanjikan, maka tidak ada biaya nyata yang terlibat dalam pengalihan. Target harus tidak terkait
sehingga kegagalan
5
tidak berarti kegagalan yang lain. Selain itu, fleksibilitas adalah kuncinya. Sekalipun saya tidak
mencapai target tertentu, saya sering menghasilkan ide dengan konsekuensi menarik yang dapat
dipublikasikan sepenuhnya, mungkin di konferensi lain. Kelayakan sangat bergantung pada intuisi
dan pengalaman pribadi. Apa tantangan terpenting di mana saya dengan bakat khusus saya
memiliki peluang yang masuk akal untuk membuat perbedaan yang signifikan? Yang terpenting
untuk sukses di lapangan, apakah saya masih menghasilkan ide-ide baru? atau apakah sudah
waktunya untuk berhenti dan beralih ke hal lain? Secara statistik kekuatan dan kelayakan
ditunjukkan oleh CV saya. Tiga makalah STOC / FOCS saya dari tahun 2011 mulai dari hashing,
hingga struktur data batas bawah, hingga algoritma grafik, mendemonstrasikan pekerjaan paralel
saya pada arah yang berbeda.
Strategi di atas juga bekerja sangat baik dengan siswa ketika saya menyesuaikan tingkat ambisi
untuk masing-masing siswa, misalnya, memberikan proyek yang saya yakin dapat dilakukan untuk
siswa pemula. Perhatikan di sini bahwa saya memiliki banyak kertas bahkan dengan siswa Guru.
Tidak pernah menjadi masalah bagi saya untuk merekrut siswa dengan bakat yang tepat.
Target konkrit
Di bawah ini saya sajikan beberapa target konkret yang akan dipertimbangkan, mulai dari hal-hal
yang saya punya ide cukup jelas tentang bagaimana pendekatannya, dan pindah ke yang lebih
ambisius. Masalah lain, misalnya terkait dengan jalur terpendek, juga akan dipertimbangkan.
Umumnya saya akan menggunakan kekuatan saya yang luas untuk merangkul berbagai minat PhD,
PostDocs, dan kolaborator tamu.
-hash ke T1[x1] ⊕ · ·Tc [ xc ] , di mana ⊕ menunjukkan xor. Perhatikan bahwa meskipun kami tidak
dapat merepresentasikan tabel yang benar-benar acak pada semua kunci, dengan karakter 8-bit,
kami dapat dengan mudah menyimpan tabel karakter acak Ti dalam
cache cepat, dan itulah
mengapa skemanya sangat cepat. Namun, skema ini bahkan tidak 4-independen, namun kami
menunjukkan bahwa skema ini memberikan banyak jaminan yang biasanya diperoleh melalui
independensi yang lebih tinggi, misalnya, konsentrasi tipe Chernoff, hashing min-bijaksana,
probing linier, dan hashing cuckoo. Seorang wasit [38] menyatakannya dengan baik: Penulis
makalah ini terlalu rendah hati ketika membahas pentingnya karya ini. Sekilas tabulasi hashing
tampak seperti instrumen tumpul yang tidak memadai (3 - tetapi tidak 4-independen) dan tidak
memiliki jenis struktur yang layak untuk studi teoritis. Hasil mereka bertentangan dengan semua
intuisi ini dan mengubah banyak kebijaksanaan konvensional. Secara khusus, probing linier kuat
tanpa input yang buruk jika kita menggunakan hashing tabulasi sederhana.
Proyek ini bertujuan untuk memberikan pemahaman yang lebih baik tentang bagaimana janji
algoritme acak sederhana dapat direalisasikan dengan fungsi hash yang dapat diimplementasikan
sederhana. Properti berguna apa dari fungsi yang benar-benar acak yang dapat direalisasikan dalam
praktik? Saya ingin menekankan bahwa meskipun fungsi hash dianggap sederhana, analisisnya
1 'dari tahun 1937 adalah contoh ekstrem
tidak. Dugaan penghentian Collaz yang 'terkenal' 3n+
tentang betapa sulitnya menganalisis bahkan algoritme yang paling sederhana sekalipun. Kami
membidik algoritme hashing yang sangat sederhana sehingga seperti sulap jika berfungsi. Ini
mengikuti tradisi teori-praktik Knuth, tetapi menyimpang dari teori inti yang lebih keras yang
dalam fokusnya pada ukuran teoritis tertentu sering mengorbankan kepraktisan. Memberikan
pemahaman matematis tentang skema praktis sederhana, harapan ambisiusnya adalah untuk
memindahkan praktik hashing ke skema yang tidak rentan terhadap masukan yang buruk.
Batasan utama hashing tabulasi sederhana adalah bahwa batas Chernoff hanya untuk variabel
yang sangat bias. Hal ini dapat diterima dalam tabel hash di atas di mana kita memiliki m = Θ(n)
bins sehingga kemungkinan berakhirnya bin yang diberikan adalah 1/n , tetapi itu tidak berfungsi
jika kita menggunakan hashing untuk mendistribusikan beban pada sejumlah terbatas mesin
paralel. Saya berharap, bagaimanapun, bahwa perubahan kecil akan mengarah pada batasan gaya
Chernoff dan Hoeffding secara umum dengan beberapa konsentrasi eksponensial yang kami
(dengan asumsi keacakan yang sebenarnya) gunakan di mana-mana dalam algoritme dan statistik
acak. Perhatikan di sini bahwa ketergantungan terbatas klasik hanya memberikan konsentrasi
polinomial. Jadi harapannya adalah skema hashing sederhana yang menyediakan properti distribusi
yang merupakan salah satu motivasi utama penggunaan fungsi hash acak. Ini juga akan berdampak
pada pembuat nomor pseudo-random.
Sebuah contoh, tidak berdasarkan tabulasi, adalah sehubungan dengan estimasi kemiripan
himpunan melaluimin 7
pembaruan dan kueri menjadi deterministik, maka batas umum terbaik yang diketahui adalah
p
O( logn/loglogn).
Ini menggunakan struktur pencarian pendahulu dinamis umum yang saya buat dengan Andersson
[3]. Batasnya optimal untuk pencarian pendahulu dinamis (mencari bilangan bulat terdekat) dan itu
bahkan jika kita mengizinkan pengacakan. Pertanyaannya adalah apakah kita bisa melakukan yang
lebih baik untuk kamus deterministik. Pertanyaan paling mendasar adalah jika ada kamus
deterministik yang memungkinkan pembaruan dan pencarian dalam waktu yang konstan. Ini akan
sangat bagus dengan konsekuensi yang luas karena kamus adalah struktur data fundamental yang
paling dasar. Saya menganggap ini adalah pertanyaan derandomisasi terpenting yang tersisa dalam
ilmu komputer teoretis.
Kemungkinan besar kebenarannya negatif dalam arti tidak ada solusi deterministik yang
sempurna, tetapi bagaimana kita membuktikannya? Ilmu komputer penuh dengan hal-hal yang kita
anggap tidak mungkin, tetapi kita tidak dapat membuktikannya, dan terkadang kita menemukan
solusi yang mengejutkan untuk masalah yang tampaknya tidak mungkin. Struktur data adalah salah
satu area di mana kami memiliki pencocokan batas atas dan bawah untuk banyak masalah dan
dengan Patrascu saya telah menemukan beberapa pemisahan mendasar [39, 34]. Namun, sejauh ini,
tidak ada yang memiliki teknik yang menawarkan pemisahan antara solusi deterministik dan acak.
Apa yang tampak sebagai strategi paling menjanjikan untuk batas bawah adalah dengan
mempertimbangkan penyisipan n elemen, dan seperti dalam [23], membaginya menjadi zaman
dengan ukuran yang meningkat secara eksponensial, yang terkecil menjadi yang terbaru. Kami
berharap dapat membuktikan bahwa algoritme pencarian harus membuat sesuatu
8
dalam gaya penelusuran biner untuk mengetahui di zaman mana kunci dimasukkan, jika ada.
Argumen semacam ini akan mengarah ke batas bawah Ω(loglogn) , dan konsisten dengan teknik
batas atas yang diketahui. Di sisi atas ada beberapa pertanyaan terkait yang perlu dipertimbangkan,
misalnya, meningkatkan waktu pembaruan untuk pencarian pendahulu dinamis deterministik.
Algoritma grafik Ingatlah bahwa saya sengaja bekerja secara paralel pada arah yang berbeda,
selalu mencari teknik untuk membuat perbedaan yang signifikan pada masalah algoritmik yang
penting. Dalam algoritma grafik, saya akan mempelajari pewarnaan grafik 3 warna yang
merupakan masalah perkiraan favorit saya sepanjang masa. Membandingkan dengan 2-mewarnai
yang mudah, ini sering kali merupakan masalah NP-hard pertama yang diajarkan kepada siswa.
Pertanyaannya adalah seberapa baik kita bisa mewarnai grafik 3 warna dalam waktu polinomial,
dan ini telah melibatkan banyak ilmuwan komputer teoretis paling terkenal [5, 8, 9, 12, 14, 28, 56].
Saya akan melibatkan Ken-Ichi Kawarabayashi (Tokyo, Jepang) yang kekuatannya ada pada sisi
teori grafik dari algoritma grafik, melengkapi latar belakang saya yang lebih algoritmik. Kami juga
akan melibatkan Carsten Thomassen (DTU, Denmark) yang merupakan ahli di sisi teori graf murni
dari pewarnaan. Tidak ada yang mampu melakukan apapun secara kombinatorial tentang masalah
tersebut sejak Blum di FOCS'90 [8]. Pemrograman semi-pasti (SDP) telah diterapkan dan habis,
dan hasil terbaik saat ini diperoleh dengan menyeimbangkan pendekatan kombinatorial dan SDP.
Target kami adalah meningkatkan hal-hal di sisi kombinatorial, mengembangkan pemahaman yang
lebih kuat tentang sifat grafik 3 warna. Mengingat berapa banyak orang terkenal yang telah
menangani masalah ini, saya pikir ini akan menjadi target yang paling tidak realistis, tetapi
Ken-Ichi dan saya mungkin sudah memiliki kemajuan pertama kami: cara untuk menyaksikan
himpunan monokromatik tertentu dalam grafik 3 warna berdasarkan bipartit ekspander. Ini akan
mengarah pada peningkatan kombinatorial pertama dalam 22 tahun, dan juga meningkatkan batas
keseluruhan bila digabungkan dengan SDP terbaru. Namun, impian besarnya adalah mendapatkan
faktor perkiraan subpolinomial.
Kami berharap untuk bekerja pada beberapa masalah aproksimasi lain dalam algoritma grafik,
misalnya, faktor 2bertahan lama - o(1) yang untuk k- way cut (masalah yang kami buktikan
parameter tetapnya dapat dilacak di [29]). Kebetulan saya memiliki faktor pendekatan terbaik yang
dikenal untuk masalahmirip k- terminal cut yang[27], tetapi itu menggunakan pemrograman linier.
Di sini ide umumnya adalah untuk membawa lebih banyak pemahaman kombinatorial, melengkapi
semua pekerjaan terbaru berdasarkan pemrograman linier dan semi-pasti.
Tonggak Sejarah Konsep tonggak agak aneh ketika Anda mencari ide-ide yang mengejutkan.
Namun, sebagai tujuan perantara dalam algoritme yang efisien, Anda hanya perlu menemukan cara
baru, yang memungkinkan Anda melakukan
9
lebih baik daripada orang lain. Semakin signifikan dan menarik peningkatan, semakin kuat tempat
Anda mempublikasikan. Contoh yang baik adalah sehubungan dengan 3-pewarnaan di mana Ken
dan saya sudah berpikir kita melihat jalan menuju peningkatan kombinatorial pertama dalam 22
tahun. Sekalipun ini tidak akan menutup masalah, saya berharap hasil seperti itu akan
mengarahkan minat pada STOC / FOCS. Kita dapat melihat sebagai tonggak semua target di atas
yang saya nyatakan bahwa saya sudah berharap tentang suatu jalan. Pandangan lain adalah bahwa
banyak penemuan menarik diharapkan selama proyek berlangsung. Kecuali untuk mahasiswa PhD
tahun pertama, saya berharap setiap anggota menjadi bagian dari penemuan tingkat STOC / FOCS
/ SODA 1-3 dalam setahun.
Denmark perspektif
Denmark telah berkomitmen kuat untuk algoritma dan teori komputasi, terutama di Arhus
˚
University dengan tidak kurang dari tiga pusat mengesankan keunggulan dari Denmark Na tional
Research Foundation (BRICS, MADALGO, dan CTIC). Kami memiliki Lars Arge dari Arhus
dengan ˚ penghargaan Riset Elit Denmark dari tahun 2010 dan Rasmus Pagh dari ITU dengan
Hibah Awal Sapere Aude Denmark dari tahun 2011. Denmark memiliki kedudukan yang sangat
kuat dalam algoritme di Eropa, hanya didominasi oleh Israel. Namun, kembalinya saya ke
Denmark akan membawa tingkat kekuatan, visibilitas, dan pengakuan internasional yang baru
dalam algoritme dasar dan struktur data.
Seperti yang disebutkan dalam CV saya, saya adalah satu-satunya di dunia yang berada di
dewan editorial dari tiga jurnal teratas untuk penelitian algoritmik. Secara khusus, saya adalah
editor area "algoritme dan struktur data" untuk jurnal ilmiah utama ACM, J. ACM. Tidak ada orang
lain di Denmark yang termasuk dalam salah satu dari mereka, tetapi Arge berada di dewan
editorialpilihan keempat Algorithmica. Demikian juga, ketika kita melihat konferensi teori atas
STOC / FOCS, saya telah menggunakan 9 PC. Ini hampir dua kali lipat dari gabungan Denmark
lainnya. Alasan utama kehadiran saya yang kuat di papan editorial dan PC ini adalah penelitian
saya. Saya memiliki 26 dokumen STOC / FOCS yang hampir tiga kali lipat dari dokumen orang
lain di Denmark. Peter Bro Miltersen dari Arhus kedua dengan 9 stoc / FOC pa- ˚ pers. Pada
konferensi algoritma atas SODA saya memiliki 23 makalah sementara Gerth Brodal dari Arhus
adalah ˚ kedua dengan 10 makalah SODA. Ini adalah tempat terkuat dari perspektif algoritmik
umum (lihat, misalnya, www.en.wikipedia.org/wiki/List dari komputer ilmu
konferensi). Faktor h saya [Google Cendekia] adalah 44. Dalam algoritme di Denmark, Lars
Arge berada di urutan kedua dengan 34. Saya adalah Anggota ACM dalam algoritme dan struktur
data. Di Denmark, satu-satunya yang memiliki peringkat ACM tertinggi dalam ilmu komputer
adalah Christian Søndergaard Jensen dari Arhus dalam database, ˚ Neil Jones pensiun dari DIKU
dalam bahasa pemrograman, dan Dines Bjørner pensiun dari DTU dalam metode formal.
10
Fokus dari pusat-pusat di Arhus berbeda. MADALGO difokuskan pada algoritma geometris
dan hierarki memori eksternal (ini menunjukkan, misalnya, dalam catatan kuat Arge dalam
geometri komputasi dengan 10 makalah SoCG) sedangkan saya bekerja pada masalah algoritmik
yang lebih umum. Hubungan antara MADALGO dan Christian S. Jensen dalam basis data spasial
akan sangat menarik. CTIC lebih jauh dengan fokusnya pada kompleksitas, kriptografi, dan
permainan (subarea lain dari ilmu komputer teo retikal dicakup oleh STOC / FOCS). Namun
demikian, ada banyak hubungan yang menarik , dan saya mengharapkan banyak kolaborasi yang
sebagian besar berada di luar negeri, saya telah berkolaborasi dengan banyak peneliti algoritma
Denmark, misalnya, Miltersen (Arhus) di [2], ˚ Pagh (ITU) di [32], Alstrup (ITU), Rauhe (ITU),
dan Gørtz (DTU) di [1], Bille (DTU) di [7], dan saya memiliki makalah dalam cara kerja dengan
Arge (Arhus). Kolaborator internasional saya akan memberikan seminar ˚ dan secara luas
meningkatkan aktivitas algoritmik di wilayah tersebut, tetapi ini membutuhkan anggaran
pengunjung yang kuat untuk mengundang mereka. Jika tidak, saya akan menjadi pengunjung yang
berkeliling dunia dengan biaya yang ditanggung oleh kolaborator saya, dan dengan manfaat yang
jauh lebih sedikit ke Denmark.
Saya ingin menekankan bahwa dibandingkan dengan center di Arhus, apa yang saya ajukan
sekarang adalah kecil. ˚ Anggap saja sebagai perbedaan antara pesta besar di mana tuan rumah
berlarian untuk memastikan semua orang senang, dan acara kecil dengan beberapa teman tempat
Anda benar-benar bisa mengobrol. Arhus telah melakukan pekerjaan luar biasa ˚ dengan banyak
PostDocs dan acara-acara hebat. Bakat saya adalah untuk penelitian dan untuk berkolaborasi,
menginspirasi, dan membimbing pada tingkat yang lebih pribadi, menggunakan kekuatan dan
pengalaman saya yang luas dalam algoritme dan struktur data. Ini adalah mengapa saya hanya ingin
(jauh lebih murah) selektif mini-pusat di mana saya bisa lebih
11
terlibat langsung dalam kegiatan penelitian (kurang manager, lebih leader).
Anggota proyek
Saya akan mencurahkan 50% dari total waktu kerja saya secara eksklusif untuk proyek ini di
Universitas Copen hagen. Selain itu, saya akan menghabiskan 25% waktu saya untuk mengajar
reguler, menambahkan setidaknya 75% dari total waktu saya di Kopenhagen dengan visi
membangun kembali diri saya secara permanen. Proyek ini mencakup seorang mahasiswa PhD
setiap saat: satu di tahun 1-3, dan satu di tahun 4–6 (tahun lalu dibayar oleh departemen). Selain itu
proyek tersebut menyertakan Post Doc di tahun 2–3. Kecuali untuk mahasiswa PhD tahun pertama,
saya berharap setiap anggota menjadi bagian dari penemuan tingkat STOC / FOCS / SODA 1-3
dalam setahun. Akhirnya, untuk membangun titik fokus baru di area tersebut, diharapkan ada
pengunjung terkemuka yang berubah untuk kolaborasi dan inspirasi. Biaya pastinya akan
tergantung pada pengunjung. Kadang-kadang kita akan memiliki pengunjung jangka panjang yang
membutuhkan gaji, misalnya, seorang profesor AS yang sedang cuti panjang dengan gaji 70% dari
lembaga rumah. Di lain waktu, kami akan memiliki pengunjung jangka pendek yang tidak
membutuhkan gaji, tetapi lebih banyak biaya perjalanan. Pengunjung yang diharapkan adalah
kolaborator saat ini seperti Kawarabayachi, Patrascu, Zwick, tetapi secara umum saya akan
mengundang mereka yang berada di balik perkembangan baru yang paling menarik terkait dengan
penelitian kami.
Terkait dengan proyek tersebut, saya akan merekrut asisten profesor jalur masa jabatan baru
dalam algoritme di Universitas Kopenhagen. Saya juga akan memiliki seorang mahasiswa PhD
dari departemen tersebut. Akhirnya, ketika kita memiliki beberapa tahun untuk didirikan, saya
berharap mendapatkan pendanaan alternatif untuk Post Doc untuk tahun 4–5.
Referensi
[1] S. Alstrup, T. Rauhe, IL Gørtz, M. Thorup, dan U. Zwick. Union-find dengan penghapusan
waktu yang konstan. Proc. ICALP ke-32, halaman 78–89, 2005.
[2] A. Andersson, PB Miltersen, S. Riis, dan M. Thorup. Kamus statis pada AC0 RAM: Waktu
p
kueri Θ( logn/ loglogn) diperlukan dan cukup. Dalam P
roc. 37 FOCS, halaman 441–
450, 1996.
[3] A. Andersson dan M. Thorup. Kumpulan terurut dinamis dengan pohon penelusuran
eksponensial. J. ACM, 54 (3): Pasal 13, 2007.
12
[4] R. Agarwala, V. Bafna, M. Farach, B. Narayanan, M. Paterson, dan M. Thorup. Pada
perkiraan taksonomi numerik (menyesuaikan jarak dengan metrik pohon). SIAM J. Comput.,
28 (3): 1073 - 1085, 1999.
[5] S. Arora, E. Chlamtac, dan M. Charikar. Jaminan perkiraan baru untuk bilangan kromatik.
Proc. STOC ke-38, 215-224, 2006.
[6] S. Arora dan R. Ge, Alat Baru untuk Pewarnaan Graf. Proc. 14 APPROX-RANDOM, halaman
1–12, 2011.
[7] P. Bille dan M. Thorup. Pencocokan ekspresi reguler dengan multi-string dan interval. Proc.
SODA ke-21, halaman 1279–1308, 2010.
[8] A. Blum. Algoritma Perkiraan Baru untuk Pewarnaan Grafik. J. ACM, 4 1 (3): 470–516, 1994.
~
/14)Algoritma -coloring selama 3-yg berhasil Grafik. Inf.
[9] A. Blum dan DR Karger. O (n3
Proses. Lett. 6 1 (1): 49–53, 1997.
[10] AZ Broder, M. Charikar, AM Frieze, dan M. Mitzenmacher. Independen per mutasi. J.
Comput. Sistem Sci., 60 (3): 630–659, 2000.
[11] AL Buchsbaum, HJ Karloff, C. Kenyon, N. Reingold, dan M. Thorup. OPT versus LOAD
dalam alokasi penyimpanan dinamis. SIAM J. Comput., 33 (3): 632–646, 2004.
[14] I. Dinur, E. Mossel, dan O. Regev. Kekerasan Bersyarat untuk Perkiraan Pewarnaan. SIAM J.
Computing, 39 (3): 843-873, 2009.
[15] N. Duffield, C. Lund, dan M. Thorup. Memperkirakan distribusi aliran dari statistik aliran
sampel. ACM / IEEE Trans. Networking, 13 (5): 933–946, 2005. Diundang dari SIGCOMM'03.
[16] N. Duffield, C. Lund, dan M. Thorup. Pengambilan sampel prioritas untuk estimasi jumlah
subset yang berubah-ubah. J. ACM, 54 (6): Pasal 32, 2007.
13
[17] AI Dumey. Pengindeksan untuk sistem memori akses acak cepat. Komputer dan Otomasi, 5
(12): 6–9, 1956.
[18] RW Floyd. Algoritma 97: Jalur Terpendek. Comm. ACM, 5 (6): 345, 1962.
[19] B. Fortz, J. Rexford, dan M. Thorup. Rekayasa lalu lintas dengan protokol perutean IP
tradisional. Majalah Komunikasi IEEE, 40 (10): 118–124, 2002.
[20] B. Fortz dan M. Thorup. Rekayasa lalu lintas internet dengan mengoptimalkan bobot OSPF.
Dalam Proc. INFOCOM 19, halaman 519–528, 2000. Sebagian dicakup oleh [21].
[21] B. Fortz dan M. Thorup. Meningkatkan kapasitas Internet menggunakan pencarian lokal.
Operasi Komputasi dan Aplikasi, 29 (1): 13-48, 2004.
[22] ML Fredman, J. Komlos dan E. Szemer ´ edi. Menyimpan Tabel Renggang dengan 0 ´ (1)
Waktu Akses Kasus Terburuk. J. ACM, 31 (3): 538–544, 1984.
[23] ML Fredman dan ME Saks. Kompleksitas probe sel dari struktur data dinamis. Proc. 21st
STOC, halaman 345–354, 1989.
[24] T. Hagerup, PB Miltersen, Kamus Penentu R. Pagh. J. Algoritma 41 (1): 69-85 2001.
√
[25] Y. Han dan M. Thorup. Pengurutandalam O(bilangann bulatloglogn) waktu dan ruang linier
yang diharapkan. Dalam Proc. 43nd FOCS, halaman 135–144, 2002.
[26] J. Holm, K. Lichtenberg, dan M. Thorup. Poli-logaritmik deterministik algoritma dinamis
penuh untuk konektivitas, spanning tree minimum, 2-edge dan biconnectivity. J. ACM, 48
(4): 723–760, 2001.
[27] D. Karger, P. Klein, C. Stein,, M. Thorup, dan N. Young. Algoritme pembulatan untuk
embedding geometris dari potongan multiway minimum. Matematika. Oper. Res., 29 (3):
436–461, 2004.
[28] DR Karger, R. Motwani, M. Sudan. Perkiraan Pewarnaan Graf dengan Program Semidefinite
ming. J. ACM, 4 5 (2): 246-265 (1998)
14
[30] R. Pagh. Kompromi untuk Kamus Efisien Kasus Terburuk. Nord.J. Comput. 7 (3): 151-163
(2000)
[31] A. Pagh dan R. Pagh. Uniform Hashing dalam Waktu Konstan dan Ruang Optimal. SIAM J.
Comput. 38 (1): 85-96 (2008)
[32] A. Pagh, R. Pagh, dan M. Thorup. Tentang penyortiran integer adaptif. Proc. ESA 12,
halaman 556–579, 2004.
[33] M. Paterson, Y. Peres, M. Thorup, P. Winkler, dan U. Zwick. Overhang maksimum. The
American Mathematical Monthly, 116 (9): 763–787, 2009. Ditampilkan dalam Science,
halaman 323: 875, 13 Februari 2009. Pemenang bersama MAA Robbins Award 2011.
[34] M. Patras¸cu dan M. Thorup. Pertukaran ruang-waktu untuk pencarian sebelumnya. Dalam
Proc. STOC ke-38, halaman 232–240, 2006.
[35] M. Patras¸cu dan M. Thorup. Pengacakan tidak membantu pencarian pendahulu. Dalam Proc.
SODA ke-18, halaman 555–564, 2007.
[36] M. Patras¸cu dan M. Thorup. Merencanakan pembaruan konektivitas yang cepat. Dalam Proc.
FOCS ke-48, halaman 646–654, 2007.
[37] M. Patrascu dan M. Thorup. Tentang kemerdekaan dibutuhkan oleh probing linier dan
kemerdekaan minwise. Dalam Proc. ICALP ke-36, halaman 715–726, 2010.
[38] M. Patras¸cu dan M. Thorup. Kekuatan hashi tabulasi sederhana. Proc. STOC ke-43, halaman
1–10, 2011. Versi lengkap http://arxiv.org/abs/1011.5200 akan muncul di J. ACM.
[39] M. Patras¸cu dan M. Thorup. Jangan terburu-buru membentuk serikat: luangkan waktu untuk
menemukan akar Anda. Proc. STOC ke-43, halaman 559–568, 2011.
[40] A. Siegel. Pada kelas universal dari fungsi hash waktu-konstan yang sangat acak. SIAM J.
Computing, 33 (3): 505–543, 2004. Diumumkan di FOCS'89.
15
[42] C. Thomassen. Setiap grafik planar dapat dipilih 5. J. Comb. Teori, Ser. B, 62 (1): 180–181,
1994.
[43] M. Thorup. Oracle kompak untuk jangkauan dan perkiraan jarak dalam digraf planar. J. ACM,
51 (6): 993–1024, 2004.
[44] M. Thorup. Min-cut yang sepenuhnya dinamis. Combinatorica, 27 (1): 91–127, 2007.
[46] M. Thorup. Kekuatan kombinatorial dalam prosesor multimedia. ACM SIGARCH Computer
Archi tecture News, 31 (5): 5–11, 2003.
[47] M. Thorup dan U. Zwick. Perkiraan jarak oracle. J. ACM, 52 (1): 1–24, 2005. [48] M. Thorup.
Kesetaraan antara antrian prioritas dan pengurutan. J. ACM, 54 (6): Pasal 28, 2007. [49] M.
Thorup. Memetakan grafik dalam waktu polinomial. Dalam Proc. FOCS ke-39, halaman 396–405,
1998.
[50] M. Thorup. Jalur terpendek sumber tunggal tidak terarah dengan bobot bilangan bulat positif
dalam waktu linier. J. ACM, 46 (3): 362–394, 1999.
[51] M. Thorup. Antrian prioritas bilangan bulat dengan kunci penurunan dalam waktu konstan
dan masalah jalur terpendek sumber tunggal. J. Comput. Syst. Sc., 69 (3): 330–353, 2004.
[52] M. Thorup. Hash string untuk probing linier. Dalam Proc. SODA ke-20, halaman 655–664,
2009.
[53] M. Thorup. Timeout dengan Time-Reversed Linear Probing. Proc. INFOCOM ke-30,
halaman 166– 170, 2011.
[54] M. Thorup dan Y. Zhang. Pencirian 5-universal berbasis tabulasi dan probing linier. Proc.
12th ALENEX, halaman 62–76, 2010.
[55] MN Wegman dan L. Carter: Fungsi Hash Baru dan Penggunaannya dalam Otentikasi dan Set
Kesetaraan. J. Comput. Syst. Sci. 2 2 (3): 265-279 (1981). Diumumkan di FOCS'79.
[56] A. Wigderson. Meningkatkan Jaminan Kinerja untuk Pewarnaan Grafik Perkiraan J. ACM, 30
(4): 729-735, 1983.
16