Anda di halaman 1dari 19

Algoritma dan Struktur Data yang 

Efisien ​Mikkel Thorup  

Abstrak  

Proyek  yang  diusulkan  akan  membahas  beberapa  masalah  mendasar  dalam  algoritma  dan 
struktur  data  yang  efisien,  mulai  dari  hashing  pseudo-random,  hingga  keberadaan  kamus 
deterministik dengan pembaruan konstan dan waktu pencarian, hingga grafik algoritma.  
Pemohon  adalah  tokoh  terkemuka  di  bidang  algoritme  dan  struktur  data  yang  efisien. 
Selama  14  tahun  terakhir  dia  telah  berada  di  AS  di  mana  daerah  itu  memiliki  benteng 
pertahanannya.  Hibah  tersebut  akan  memfasilitasi  kembalinya  dia  ke  Universitas  Kopenhagen 
dan  akan  memungkinkannya  untuk  menciptakan  pusat  keunggulan  mini:  titik  fokus  baru yang 
akan meningkatkan penelitian dalam algoritme dan struktur data yang efisien di Eropa.  


Deskripsi proyek  
Algoritma  dan  Struktur  Data  yang  Efisien  ​(dengan  referensi  ke  beberapa  pekerjaan  saya  yang 
terkait)  Goritma  algoritma  adalah  salah  satu  bidang  utama  ilmu  komputer,  baik  dalam  hal 
pengajaran  dan  penelitian. Ini relevan dengan pemrosesan data kapan pun kita membutuhkan solusi 
yang  dapat  diskalakan,  karenanya  untuk  banyak  sains  dan  industri.  Misalkan,  kita  ingin 
menyelesaikan  masalah  yang  melibatkan  ​n  ​variabel.  Algoritme  penelusuran  lengkap  yang  sepele 
mungkin  mencoba  semua  kombinasi.  Namun,  meskipun  setiap  variabel  hanya  memiliki  dua  opsi, 

terdapat  2​n​kombinasi,  yang  merupakan  ​eksponensial​,  dan  jika  ​n  ​≥ ​70,  maka  ini  terlalu  banyak 
bahkan  jika  semua  komputer  dunia  mengerjakannya  selama  setahun.  Dalam  algoritme  kami 
mencoba  menemukan  solusi  dalamwaktu  ​polinomial  ​jika  tidak  ​linier  d​ alam  jumlah  variabel. 
Karena  masalah  yang  cukup  umum  adalah  NP-hard  atau  lebih  buruk,  kita  harus  memahami  dan 
memanfaatkan  sifat  khusus  dari  masalah  yang  dihadapi.  Ambil  masalah  klasik  seperti  menyortir  ​n 
angka.  Pengurutan  biasanya  dibutuhkan  dalam  pengolahan  data.  Algoritme  naif  seperti  Sortir 
Penyisipan  mengambil  satu  angka  pada  satu  waktu,  memindai  posisinya  di  antara  yang  sudah 

diurutkan,  dalam  ​O(​ ​n​2​) ​total  waktu.  '​O'​   mewakili  konstanta yang tidak ditentukan bergantung pada 


komputer  beton yang digunakan. Fokus kami dalam algoritme adalah kinerja asimtotik dengan ​n ​→
∞​.  Quick  Sort  yang  lebih  canggih  memecahkan  masalah  dalam  ​O​(​n​log​n​) ​waktu  yang  diharapkan, 
memungkinkan kita  
menangani kumpulan data yang jauh lebih besar. Saya sendiri memiliki catatan dengan algoritma 
√​
penyortiran ​n ​bilangan bulat ataufloating ​angkapoint di ​O​(​n​ loglog​n​) ​waktu yang diharapkan [25]. 
Ini masih merupakan masalah terbuka utama jika bilangan bulat dapat  
diurutkan  dalam  waktu  linier.  Secara  umum,  dalam  ​algoritme  k​ ami  mencoba  memahami  seberapa 
baik  kami  dapat  menyelesaikan  masalah  kombinatorial  dengan membuat penggunaan sumber daya 
komputasi  yang  paling  efisien  seperti  waktu  dan  ruang.  Disiplin  ini  bersifat  teoritis  di  mana  kami 
mencoba  untuk membuktikan bahwa solusi kami efisien untuk semua masukan yang mungkin, atau 
sebagai alternatif, dengan harapan untuk distribusi masukan yang diberikan.  
Banyak  peneliti  algoritma  memiliki  fokus  utama  mereka  dalam  memutuskan  jenis  masalah 
yang  dapat  diselesaikan  dalam  waktu  polinomial  (lihat  misalnya,  [49]).  Secara  khusus,  untuk 
masalah  optimasi  NP-hard,  banyak  upaya  dilakukan  untuk  memahami  seberapa  baik  perkiraan 
yang  dapat  kami  jamin  dalam  waktu  polinomial  (makalah  saya  [4,  11,  27]  mengikuti  jalur 
pekerjaan  ini).  Namun,  seperti  pada  contoh  pengurutan  di  atas,  saya  sangat  tertarik  padalebih 
​ ana  waktu  polinomial  tidak  cukup,  tetapi  di  mana  kami mencoba untuk 
algoritme  yangefisien  di  m
membuat  waktu  berjalan  lebih  dekat  ke  linier.  Motivasi  yang  mendasari  adalah  untuk  memahami 
bagaimana  menangani  kumpulan  data  yang  besar.  Secara  konkret,  tidak  jarang  menangani 

kumpulan  data  dengan,  katakanlah,  ​n  ​≥ ​10​8​elemen.  Di  komputer  saat  ini,  instruksi  sederhana 

seperti  pencarian  memori  membutuhkan  waktu  sekitar  10​-​7​detik.  Algoritma  kuadrat  yang 

menggunakan  ​n2​​ instruksi  akan  memakan  waktu  lebih  dari  30  tahun.  Masalah  tidak  akan 
diselesaikan  oleh  komputer  yang  lebih  kuat,  ini  hanya  akan  menjadi  lebih  buruk:  ukuran  masalah 
yang dianggap cenderung  


tumbuh  dengan  ukuran  memori  yang  lagi-lagi  cenderung  tumbuh  setidaknya  secepat  kecepatan 
prosesor  .  Oleh  karena  itu,  kebutuhan  akan  algoritme  yang  lebih  efisien  semakin  meningkat. 
Komputer  paralel  mungkin  menyimpan  faktor  ​n​,  tetapi  masalah  utamanya  tetap:  kita  masih 
membutuhkan  waktu  polinomial  derajat  rendah.  Selain  itu,  untuk  meminimalkan  penundaan 
komunikasi,  kami  tetap  ingin  prosesor  individu  melakukan  sebanyak  mungkin  pekerjaan  secara 
lokal.  Proposal  ini  mempertimbangkan  hashing  yang  sama-sama  relevan  dalam  pengaturan 
berurutan, paralel, dan terdistribusi.  
Bagian  penting  dari  algoritme  yang  efisien  adalah  struktur  data  di  mana  fokusnya  adalah  pada 
bagaimana  kita  dapat  merepresentasikan  informasi  secara  efisien.  Peramal  jarak  planar  dari  kertas 
yang  saya  pilih  [43]  adalah  contoh  yang  baik  di  mana  saya  mengurangi  ruang  yang  dibutuhkan 

untuk  kueri  cepat  darisepele  ​O  yang​(​n2​​ ) ​ke ​O(​ ​nl​ og​n​)​. Dalam struktur data dinamis kami juga ingin 

mendukung  perubahan  secara  efisien,  misalnya,  dalam  antrian  prioritas  [48],  kami  dapat 
memasukkan  angka  dan  mengekstrak  minimum.  Antrian  prioritas  digunakan  baik  secara  langsung 
maupun  di  dalam  banyak  algoritma  greedy,  misalnya,  untuk  mempercepat  jalur  terpendek  dalam 
grafik  terarah.  Algoritma  grafik  dinamis  dari  [26]  dapat  mempertahankan  jembatan  dalam  grafik 
dinamis,  dan  ini  telah  menghasilkan  implementasi  yang  efisien  dari  bukti  induktif  klasik  dalam 
teori pencocokan. Salah satu struktur data yang paling mendasar adalah kamus atau tabel hash yang 
memungkinkan  kita  menyimpan  dan  mencari  informasi  yang  terkait  dengan  kunci.  Masalahnya 
adalah  hambatan  bagi  berbagai  jenis  analisis  data  termasuk  pemrosesan  aliran  data  volume  tinggi. 
Ini  juga  membentuk  lingkaran  dalam  dari  banyak  algoritma.  Masalahnya  telah  menjadi  pusat 
komputasi  selama  kita  memiliki  komputer  (makalah  saya  [2,  38,  52, 53] mengikuti jalur pekerjaan 
ini).  Studi  tentang  algoritme  dan  struktur  data  yang  efisien  (tidak  hanya  polinomial)  telah  lama 
menjadi  tradisi  yang  membanggakan  dalam  ilmu  komputer  termasuk  penghargaan  Turing  dari 
Knuth, Hopcroft, dan Tarjan.  
Akhirnya  perlu  diketahui  bahwa  teori  bukanlah  praktek,  tetapi  teori  dapat  memberikan  dasar 
yang  besar  untuk  praktek.  Para  pendiri  Google  berasal  dari  latar  belakang  teori  /  matematika. 
Mahasiswa  saya,  Stephen  Alstrup,  start-up  Octoshape  adalah  contoh  bagus  lainnya,  dan  saya 
berharap  Stephen  akan  bergabung  dengan  University  of  Copen  hagen  untuk  mempromosikan 
start-up.  Saya  sendiri  mendapat  AT&T  Fellow  Honor  untuk  dampak  teknologi  saya  (bagian  dari 
pekerjaan  AT&T  saya  adalah  berkonsultasi  tentang  penerapan  teori  dalam  proyek  praktis  yang 
konkret,  misalnya,  pengenalan  suara,  perutean  lalu  lintas  Internet,  manajemen,  dan  analisis, 
nirkabel termasuk iPhone, dll.) .  

Tujuan  untuk  pemahaman  teknis  ​Algoritma  mencoba  untuk  memahami  bagaimana  kita  dapat 
memecahkan  masalah  komputasi  secara  paling  efisien.  Seseorang  dapat  membedakan  antara  dua 
jenis  kontribusi.  Kami  memiliki  pelopor  masalah  yang  memperluas  bidang  mengidentifikasi  jenis 
masalah  baru,  dan  kami  memiliki  perintis  teknis  seperti  saya  yang  mencoba  memperdalam bidang 
tersebut,  mengembangkan  teknik  baru  yang  ampuh  untuk  memecahkan  masalah.  Kedua  belah 
pihak berada dalam interaksi yang dinamis. Ketika masalah baru teridentifikasi,  


tugas  pertama  adalah  memahami  bagaimana  masalah  tersebut  dapat  diatasi  dengan  teknik  yang 
ada.  Ini  juga  memberi  kita pemahaman yang lebih baik tentang luasnya teknik ini. Jika teknik yang 
ada  tidak  memberikan  solusi  yang  memuaskan  dan  jika  masalah  memiliki  relevansi yang bertahan 
lama,  maka  pemecah  masalah  ditantang  untuk  mengembangkan  teknik  baru  yang  ampuh  yang 
nantinya  dapat  diterapkan  oleh  perintis  masalah  ke  masalah  yang  lebih  baru.  Analog  yang  baik 
adalah  pengobatan,  memikirkan  masalah  sebagai  penyakit  dan  algoritme  sebagai  pengobatan. 
Mempelajari  penyakit  baru  seperti  flu burung itu penting, tetapi begitu juga pengobatan baru untuk 
penyakit  lama  seperti  kanker.  Jika  tujuan  Anda  adalah  untuk  mengobati  orang,  mungkin  kurang 
penting  apa  sebenarnya  penyakit  itu. Faktanya, harapan besar adalah menemukan pengobatan yang 
berhasil  untuk  berbagai  jenis  penyakit.  Struktur  data  adalah  contoh  bagus  dari  keumuman  ini 
karena  kami  fokus  pada  kotak  hitam  yang  membantu  dalam  algoritme  menangani banyak masalah 
berbeda.  
Batas  kemampuan  teknis  kita  sering  kali  paling  baik  dilihat  dalam  masalah-masalah  yang 
terkenal  penting  tetapi  di  mana  teknik-teknik  yang  ada  telah  habis  tanpa  solusi  yang  memuaskan 
yang  terlihat.  Saat  itulah  kami  tahu  bahwa  ide-ide  teknis  orisinal  dibutuhkan.  Untuk 
mengilustrasikan  jenis  penelitian  yang  saya  tuju,  izinkan  saya  mengutip  laporan  wasit  pada 
makalah  pilihan  saya  "Oracle  kompak  untuk  jangkauan  dan  perkiraan  jarak  dalam  digraf  planar" 
[43]:  ​Makalah  ini  membahas  masalah  membangun  struktur  data  untuk  planar  diarahkan  statis 
grafik  yang  mendukung  kueri  keterjangkauan  dan  perkiraan  jarak.  Untuk  kueri  keterjangkauan 
[apakah  ada  jalur  yang  diarahkan  dari  satu  simpul  ke  simpul  lain]  penulis  mencapai  O​(​1​) ​waktu 
dengan  spasi  O​(​n​log​n)​ ​.  Sebelumnya  tidak  ada  struktur  data  yang  diketahui  dengan  kueri  waktu 

konstan  dan  menggunakan  o​(​n​2​) ​spasi!  Struktur  data  untuk  perkiraan  jarak  adalah  generalisasi 

dari  struktur  data  keterjangkauan.  Kontribusi  teknis  utama  dari  makalah  ini  terkandung  dalam 
hasil  jangkauan  (dekomposisi  grafik  planar  menjadi satu set grafik 2-lapis dan dekomposisi dipath 
ini;  sangat  sederhana!).  Masalah  yang  dipertimbangkan  sebelumnya  telah  dipelajari  secara 
intensif  oleh  banyak  penulis,  tetapi  makalah  ini  adalah  yang  pertama  membuat  kemajuan  penting 
pada  masalah  tersebut.  Saya  menganggap  hasil  makalah  sebagai  hasil  terobosan.  ​Perhatikan 
bahwa  kesederhanaan  adalah  kebajikan.  Umumnya  kami  lebih  suka  bukti  sederhana,  dan  sangat 
penting bahwa algoritme sederhana jika kami mengharapkan dampak praktis.  
Pada  dasarnya,  fokus  saya  lebih  pada  solusi  daripada  masalah.  Yang  benar-benar 
menggairahkan  saya  adalah  teknik  elegan  sederhana  baru  dengan  kekuatan  untuk  memecahkan 
masalah  penting.  Kriteria  terakhir  berarti  bahwa  titik  awal  saya  selalu merupakan masalah penting 
(masih  relevan)  di  luar  kemampuan  kita  saat  ini.  Masalahnya  sendiri  bukan  satu-satunya  target. 
Harapannya  adalah  untuk  solusi  /  teknik  yang  mengejutkan  dan  kuat  dengan  dampak  potensial  di 
luar  masalah  yang  dipertimbangkan.  Fokus  pada  solusi  dan  pemahaman  teknis  inilah  yang  telah 
membawa saya pada terobosan yang mencakup matematika murni [33],  


hingga teori [26, 50, 43, 47, 48, 44, 38, 39] hingga praktik [15, 16, 20, 38] (lihat [19] untuk konteks 
[20]).  

Rencana,  kelayakan,  dan  kebaruan  ​Untuk  jenis  penelitian  saya,  kebaruan  dan  kelayakan  tidak 
ditemukan  dalam  rencana  dan  pendekatan  awal.  Ini  adalah  penelitian  teoritis  dasar  yang  mencari 
teknik  baru,  mengejutkan,  sederhana,  dan  kuat.  Kelayakan  dari  tujuan  ini  dapat  ditemukan  dalam 
pendekatan  dan  keterampilan  umum,  sebagaimana  didokumentasikan  oleh  rekam  jejak  saya. 
Masalah  ini  diilustrasikan  dengan  baik  oleh  kutipan  berikut dari laporan wasit ahli di makalah saya 
"minimum  ​k​Pemotongan-waydari  ukuran  terbatas  adalah  parameter  tetap  dapat  diatur"  dengan 
Kawarabayashi  [29]:  ​Teknik  yang  digunakan  dalam  algoritme  sangat  cerdik  dan  tidak  pernah 
digunakan  untuk  masalah  pemotongan  berparameter.  Makalah  ini  benar-benar  dasar dan mandiri 
(khususnya,  tidak  ada  alat  dari  teori  minor  grafik  yang  digunakan).  Faktanya,  makalah  pada 
dasarnya  tidak berisi bukti: begitu mereka menjelaskan algoritme, semuanya jelas! Ini tidak berarti 
bahwa  algoritme  itu  sepele:  idenya  sangat  tidak  wajar  dan  tidak  jelas  pada  awalnya  mengapa 
pendekatan  ini  harus  bekerja  sama  sekali,  tetapi  tampaknya  berhasil.  Memiliki  bukti  "sederhana" 
seperti  itu  harus  dianggap  sebagai  nilai  tambah  yang  besar.  ​Intinya  di  sini  adalah  bahwa 
pendekatan  sukses  novel  itu  tidak  wajar  bagi  ahli  (saya  bukan  ahli  tetapi  memiliki  inspirasi  segar 
dari  luar),  jadi  bahkan  jika  saya  memasukkannya  ke  dalam  rencana  proyek,  maka  itu  tidak  akan 
terlihat  layak.  Faktanya,  karena  tekniknya  sederhana,  jika itu alami, maka itu akan ditemukan sejak 
lama.  Selain  itu,  kami  mencoba  banyak  pendekatan  baru  sebelum  kami  berhasil.  Secara  lebih 
umum,  persyaratan  dasar  untuk  penelitian  tingkat  STOC  /  FOCS  adalah  bahwa  masalahnya  harus 
penting  dan  tekniknya  mengejutkan.  Karena itu, kami mencari ide yang sangat kuat, tetapi ide yang 
tidak  dapat  Anda  rencanakan.  Banyak  ide  dikembangkan,  dicoba,  dan  gagal  sebagai  solusi  untuk 
menyelesaikan  masalah.  Ketika  pertama  kali  Anda  memiliki  ide  yang  benar, seringkali tidak butuh 
waktu  lama  untuk  memeriksa  apakah  ide  tersebut  berhasil.  Sebelum  Anda  membuktikan  bahwa 
sebuah  ide  berhasil,  Anda  tidak  tahu  apakah  Anda  berada  di  jalur  yang  benar.  Akhirnya,  dengan 
target  yang  ambisius,  ada  kemungkinan  yang  sangat bagus bahwa masalahnya akan menjadi terlalu 
sulit,  jika  bukan  tidak  mungkin.  Dengan  demikian,  tetap  fokus  pada  satu  target  ambisius  sangat 
berisiko.  

Pendekatan  umum  fleksibel  yang  layak  ​Strategi  penelitian  saya  tidak  unik  tetapi  juga  dimiliki 
oleh  banyak  peneliti  yang  sukses  dalam  teori.  Berjuang  untuk  kesempurnaan,  saya  sering 
membidik  target yang ambisius dengan risiko kegagalan yang signifikan. Untuk membuatnya layak 
secara  statistik,  saya  mengerjakan  beberapa  target  yang  ambisius.  Hal  ini  dimungkinkan  karena 
tidak  ada  investasi  nyata  yang  terkait  dengan  penelitian  ini  pada  target  tertentu  (tidak  ada 
pengaturan eksperimental yang mahal): jika Anda terjebak pada satu target, dan target lainnya lebih 
menjanjikan,  maka  tidak  ada  biaya  nyata  yang terlibat dalam pengalihan. Target harus tidak terkait 
sehingga kegagalan  


tidak  berarti  kegagalan  yang  lain.  Selain  itu,  fleksibilitas  adalah  kuncinya.  Sekalipun  saya  tidak 
mencapai  target  tertentu,  saya  sering  menghasilkan  ide  dengan  konsekuensi  menarik  yang  dapat 
dipublikasikan  sepenuhnya,  mungkin  di  konferensi  lain.  Kelayakan  sangat bergantung pada intuisi 
dan  pengalaman  pribadi.  Apa  tantangan  terpenting  di  mana  saya  dengan  bakat  khusus  saya 
memiliki  peluang  yang  masuk  akal  untuk  membuat  perbedaan  yang  signifikan?  Yang  terpenting 
untuk  sukses  di  lapangan,  apakah  saya  masih  menghasilkan  ide-ide  baru?  atau  apakah  sudah 
waktunya  untuk  berhenti  dan  beralih  ke  hal  lain?  Secara  statistik  kekuatan  dan  kelayakan 
ditunjukkan  oleh  CV  saya.  Tiga  makalah  STOC  /  FOCS  saya  dari  tahun  2011  mulai dari hashing, 
hingga  struktur  data  batas  bawah,  hingga  algoritma  grafik,  mendemonstrasikan  pekerjaan  paralel 
saya pada arah yang berbeda.  
Strategi  di  atas  juga  bekerja sangat baik dengan siswa ketika saya menyesuaikan tingkat ambisi 
untuk  masing-masing  siswa,  misalnya,  memberikan  proyek yang saya yakin dapat dilakukan untuk 
siswa  pemula.  Perhatikan  di  sini  bahwa  saya  memiliki  banyak  kertas  bahkan  dengan  siswa  Guru. 
Tidak pernah menjadi masalah bagi saya untuk merekrut siswa dengan bakat yang tepat.  

Target konkrit  

Di  bawah  ini  saya  sajikan  beberapa  target  konkret  yang  akan  dipertimbangkan,  mulai  dari  hal-hal 
yang  saya  punya  ide  cukup  jelas  tentang  bagaimana  pendekatannya,  dan  pindah  ke  yang  lebih 
ambisius.  Masalah  lain,  misalnya  terkait  dengan  jalur  terpendek,  juga  akan  dipertimbangkan. 
Umumnya  saya  akan menggunakan kekuatan saya yang luas untuk merangkul berbagai minat PhD, 
PostDocs, dan kolaborator tamu.  

Pseudo-random  hashing  ​Ini  adalah  arahan  saya  yang paling praktis / terapan. Hashing digunakan 


di  mana-mana  dalam  komputasi  sekuensial  dan  paralel,  termasuk  banyak  kasus  kumpulan  data 
besar  dan  aliran  volume  tinggi  di  mana  kecepatan  sangat  penting.  Secara  konseptual  fungsi  hash 
adalah  kunci  pemetaan  fungsi  untuk  menjalankan  nilai  dom,  tetapi  untuk  sebagian  besar  aplikasi 
hal  ini  tidak  mungkin  karena  memerlukan  penyimpanan  nilai  hash  acak  untuk  setiap  kunci  yang 
memungkinkan.  Pseudo-random  hashing  adalah  area  di  mana  matematika  /  teori dapat berdampak 
besar,  membuktikan  bahwa  fungsi  hash  yang  dapat  diimplementasikan  memberikan  jaminan 
probabilistik  penting  yang  serupa  dengan  fungsi  hash  yang  benar-benar  acak  yang  tidak mungkin, 
yaitu,  bahwa  mereka  tidak  rentan  terhadap  distribusi input yang buruk. Contoh bagus dari masalah 
ini  adalah  probing  linier  yang  menyediakan  implementasi  tabel  hash  yang  sangat  populer  dan 
efisien.  Melahirkan  analisis  algoritme  pada  tahun  1963,  Knuth  menunjukkan  bahwa probing linier 
bekerja  dengan  baik  dengan  hashing  yang  benar-benar  acak  (dengan ekspektasi dan dengan varian 
rendah  untuk  setiap  input  yang  diberikan),  tetapi  probing  linier  memiliki  reputasi  sebagai  tidak 
dapat  diandalkan.  Memang,  jika  hashing  multilikatif  standar  digunakan,  maka  input  dari  serangan 
DoS  khas  mengarah  ke  kinerja  yang  sangat  tidak  dapat  diandalkan [54]. Dalam makalah saya [38] 
dengan Patrascu, kami membuktikan bahwa hashing tabulasipaling sederhana  
6 yang 
memberikan  jaminan  kuat  yang  tak  terduga.  Skema  itu  sendiri  sudah  ada  sejak lebih dari 30 tahun 
yang  lalu  ke  Carter  dan  Wegman  [55].  Kunci  dipandang  terdiri  dari  ​c  ​karakter.  Kami 

menginisialisasi  ​c  t​ abel  ​T​1​, ...,​T​c  m


​ emetakan  karakter  ke  kode  hash  acak.  Kunci  ​x  ​= (​x1​​ , ..., ​xq​ ​) di

-hash  ke  ​T​1​[​x​1​] ⊕ · ·​Tc​ [​​ xc​ ]​​ ,  di  mana  ​⊕ ​menunjukkan  xor.  Perhatikan  bahwa  meskipun  kami  tidak 
dapat  merepresentasikan  tabel  yang  benar-benar  acak  pada  semua  kunci,  dengan  karakter  8-bit, 

kami  dapat  dengan  mudah  menyimpan  tabel  karakter  acak  ​Ti​ dalam
​   cache  cepat,  dan  itulah 
mengapa  skemanya  sangat  cepat.  Namun,  skema  ini  bahkan  tidak  4-independen,  namun  kami 
menunjukkan  bahwa  skema  ini  memberikan  banyak  jaminan  yang  biasanya  diperoleh  melalui 
independensi  yang  lebih  tinggi,  misalnya,  konsentrasi  tipe  Chernoff,  hashing  min-bijaksana, 
probing  linier,  dan  hashing  cuckoo.  Seorang  wasit  [38]  menyatakannya  dengan  baik:  ​Penulis 
makalah  ini  terlalu  rendah  hati  ketika  membahas  pentingnya  karya  ini.  Sekilas  tabulasi  hashing 
tampak  seperti  instrumen  tumpul  yang  tidak  memadai  (3  -  tetapi  tidak  4-independen)  dan  tidak 
memiliki  jenis  struktur  yang  layak  untuk  studi  teoritis.  Hasil  mereka  bertentangan  dengan  semua 
intuisi  ini  dan  mengubah  banyak  kebijaksanaan  konvensional.  ​Secara  khusus,  probing  linier  kuat 
tanpa input yang buruk jika kita menggunakan hashing tabulasi sederhana.  
Proyek  ini  bertujuan  untuk  memberikan  pemahaman  yang  lebih  baik  tentang  bagaimana  janji 
algoritme  acak  sederhana  dapat  direalisasikan  dengan  fungsi  hash  yang  dapat  diimplementasikan 
sederhana.  Properti berguna apa dari fungsi yang benar-benar acak yang dapat direalisasikan dalam 
praktik?  Saya  ingin  menekankan  bahwa  meskipun  fungsi  hash  dianggap  sederhana,  analisisnya 
​ ​1  'dari  tahun  1937  adalah  contoh  ekstrem 
tidak.  Dugaan  penghentian  Collaz  yang  'terkenal'  3​n+
tentang  betapa  sulitnya  menganalisis  bahkan  algoritme  yang  paling  sederhana  sekalipun.  Kami 
membidik  algoritme  hashing  yang  sangat  sederhana  sehingga  seperti  sulap  jika  berfungsi.  Ini 
mengikuti  tradisi  teori-praktik  Knuth,  tetapi  menyimpang  dari  teori  inti  yang  lebih  keras  yang 
dalam  fokusnya  pada  ukuran  teoritis  tertentu  sering  mengorbankan  kepraktisan.  Memberikan 
pemahaman  matematis  tentang  skema  praktis  sederhana,  harapan  ambisiusnya  adalah  untuk 
memindahkan praktik hashing ke skema yang tidak rentan terhadap masukan yang buruk.  
Batasan  utama  hashing  tabulasi  sederhana  adalah  bahwa  batas  Chernoff  hanya  untuk  variabel 
yang  sangat  bias.  Hal  ini  dapat  diterima  dalam  tabel  hash  di  atas  di  mana  kita memiliki ​m ​= ​Θ​(​n​)
bins  sehingga  kemungkinan  berakhirnya  bin  yang  diberikan  adalah  1​/n​ ,​   tetapi  itu  tidak  berfungsi 
jika  kita  menggunakan  hashing  untuk  mendistribusikan  beban  pada  sejumlah  terbatas  mesin 
paralel.  Saya  berharap,  bagaimanapun,  bahwa  perubahan  kecil  akan  mengarah  pada  batasan  gaya 
Chernoff  dan  Hoeffding  secara  umum  dengan  beberapa  konsentrasi  eksponensial  yang  kami 
(dengan  asumsi  keacakan  yang  sebenarnya)  gunakan  di  mana-mana  dalam  algoritme  dan  statistik 
acak.  Perhatikan  di  sini  bahwa  ketergantungan  terbatas  klasik  hanya  memberikan  konsentrasi 
polinomial.  Jadi  harapannya adalah skema hashing sederhana yang menyediakan properti distribusi 
yang  merupakan  salah  satu  motivasi utama penggunaan fungsi hash acak. Ini juga akan berdampak 
pada pembuat nomor pseudo-random.  
Sebuah contoh, tidak berdasarkan tabulasi, adalah sehubungan dengan estimasi kemiripan 

himpunan melaluimin 7 

hashing[10],  digunakan  dalam  penambangan  data,  pengelompokan,  pembelajaran  mesin,  deteksi 


plagiarisme,  dll.  Pada  dasarnya  ada  dua  pendekatan  untuk  mendapatkan kepercayaan: (1) terapkan 
min-hashing  ​k  k​ ali  secara  independen,  atau  (2)bottom-​k  ​pengambilan  sampel.  Dengan  hashing 
yang  benar-benar  acak,  kedua  opsi  tersebut  menghasilkan  kinerja  yang  sangat  mirip.  Namun,  jika 
kita  menggunakan  hashing  multiplikasi-shift  2-independen  yang  paling  sederhana,  maka  dengan 
(1) kita mungkin  
mendapatkan bias dengan faktor ​O​(​log​n​) t​ idak peduli seberapa besar ​k ​. Namun, dengan (2), 
√​
berkatnegatif ​korelasi, saya berharap kesalahan yang diharapkan mendekati ​O(​ ​1​/​ k​) ​dengan hash 
yang benar-benar acak  
.  Saya  bahkan  berharap  ini  juga  akan  bekerja  untuk  pengambilan  sampel  prioritas  [16], 
menggeneralisasi  perkiraan  kesamaan  ke  set  berbobot.  Perbedaan  antara  (1)  dan  (2) 
menggambarkan  dengan  baik  kehalusan  area  tersebut.  Fungsi  hash  acak  semu  jauh  dari  acak,  dan 
agak  rumit  untuk  memahami  jenis  algoritme  acak  mana  yang  dapat  diimplementasikan  dengan 
fungsi hash realistis.  

Kamus  deterministik  ​Hashing  digunakan  di  semua  implementasi kamus terbaik, baik secara acak 


maupun  deterministik.  Rantai  dan probing linier memungkinkan kita untuk mendukung pembaruan 
dan  kueri  dalam  waktu  konstan  yang  diharapkan  [17].  Dengan  menggunakan  metode  yang  lebih 
canggih, kita tahu bagaimana membuat  
kueri deterministik waktu konstan, tetapi pembaruan masih diacak [22, 13]. Jika kita ingin 

pembaruan dan kueri menjadi deterministik, maka batas umum terbaik yang diketahui adalah 
p​
O​(​ log​n​/​loglog​n​)​.  
Ini  menggunakan  struktur  pencarian  pendahulu  dinamis  umum  yang  saya  buat  dengan  Andersson 
[3].  Batasnya  optimal  untuk pencarian pendahulu dinamis (mencari bilangan bulat terdekat) dan itu 
bahkan  jika  kita  mengizinkan  pengacakan.  Pertanyaannya adalah apakah kita bisa melakukan yang 
lebih  baik  untuk  kamus  deterministik.  Pertanyaan  paling  mendasar  adalah  jika  ada  kamus 
deterministik  yang  memungkinkan  pembaruan  dan  pencarian  dalam  waktu  yang  konstan.  Ini  akan 
sangat  bagus  dengan  konsekuensi  yang  luas  karena  kamus  adalah  struktur  data  fundamental  yang 
paling  dasar.  Saya  menganggap  ini  adalah  pertanyaan derandomisasi terpenting yang tersisa dalam 
ilmu komputer teoretis.  
Kemungkinan  besar  kebenarannya  negatif  dalam  arti  tidak  ada  solusi  deterministik  yang 
sempurna,  tetapi  bagaimana  kita  membuktikannya? Ilmu komputer penuh dengan hal-hal yang kita 
anggap  tidak  mungkin,  tetapi  kita  tidak  dapat  membuktikannya,  dan  terkadang  kita  menemukan 
solusi  yang  mengejutkan untuk masalah yang tampaknya tidak mungkin. Struktur data adalah salah 
satu  area  di  mana  kami  memiliki  pencocokan  batas  atas  dan  bawah  untuk  banyak  masalah  dan 
dengan  Patrascu saya telah menemukan beberapa pemisahan mendasar [39, 34]. Namun, sejauh ini, 
tidak  ada  yang  memiliki  teknik  yang  menawarkan  pemisahan  antara solusi deterministik dan acak. 
Apa  yang  tampak  sebagai  strategi  paling  menjanjikan  untuk  batas  bawah  adalah  dengan 
mempertimbangkan  penyisipan  ​n  ​elemen,  dan  seperti  dalam  [23],  membaginya  menjadi  zaman 
dengan  ukuran  yang  meningkat  secara  eksponensial,  yang  terkecil  menjadi  yang  terbaru.  Kami 
berharap dapat membuktikan bahwa algoritme pencarian harus membuat sesuatu  


dalam  gaya  penelusuran  biner  untuk  mengetahui  di  zaman  mana  kunci  dimasukkan,  jika  ada. 
Argumen  semacam  ini  akan  mengarah  ke  batas  bawah  ​Ω​(​loglog​n)​ ​,  dan  konsisten  dengan  teknik 
batas  atas  yang  diketahui. Di sisi atas ada beberapa pertanyaan terkait yang perlu dipertimbangkan, 
misalnya, meningkatkan waktu pembaruan untuk pencarian pendahulu dinamis deterministik.  

Algoritma  grafik  ​Ingatlah  bahwa  saya  sengaja  bekerja  secara  paralel  pada  arah  yang  berbeda, 
selalu  mencari  teknik  untuk  membuat  perbedaan  yang  signifikan  pada  masalah  algoritmik  yang 
penting.  Dalam  algoritma  grafik,  saya  akan  mempelajari  pewarnaan  grafik  3  warna  yang 
merupakan  masalah  perkiraan  favorit  saya  sepanjang  masa.  Membandingkan  dengan  2-mewarnai 
yang  mudah,  ini  sering  kali  merupakan  masalah  NP-hard  pertama  yang  diajarkan  kepada  siswa. 
Pertanyaannya  adalah  seberapa  baik  kita  bisa  mewarnai  grafik  3  warna  dalam  waktu  polinomial, 
dan  ini  telah  melibatkan banyak ilmuwan komputer teoretis paling terkenal [5, 8, 9, 12, 14, 28, 56]. 
Saya  akan  melibatkan  Ken-Ichi  Kawarabayashi  (Tokyo,  Jepang)  yang  kekuatannya  ada  pada  sisi 
teori  grafik  dari  algoritma  grafik, melengkapi latar belakang saya yang lebih algoritmik. Kami juga 
akan  melibatkan  Carsten  Thomassen (DTU, Denmark) yang merupakan ahli di sisi teori graf murni 
dari  pewarnaan.  Tidak  ada  yang  mampu  melakukan  apapun  secara  kombinatorial  tentang  masalah 
tersebut  sejak  Blum  di  FOCS'90  [8].  Pemrograman  semi-pasti  (SDP)  telah  diterapkan  dan  habis, 
dan  hasil  terbaik  saat  ini  diperoleh  dengan  menyeimbangkan  pendekatan  kombinatorial  dan  SDP. 
Target  kami  adalah meningkatkan hal-hal di sisi kombinatorial, mengembangkan pemahaman yang 
lebih  kuat  tentang  sifat  grafik  3  warna.  Mengingat  berapa  banyak  orang  terkenal  yang  telah 
menangani  masalah  ini,  saya  pikir  ini  akan  menjadi  target  yang  paling  tidak  realistis,  tetapi 
Ken-Ichi  dan  saya  mungkin  sudah  memiliki  kemajuan  pertama  kami:  cara  untuk  menyaksikan 
himpunan  monokromatik  tertentu  dalam  grafik  3  warna  berdasarkan  bipartit  ekspander.  Ini  akan 
mengarah  pada  peningkatan  kombinatorial  pertama  dalam  22  tahun,  dan  juga  meningkatkan  batas 
keseluruhan  bila  digabungkan  dengan  SDP  terbaru.  Namun,  impian  besarnya  adalah  mendapatkan 
faktor perkiraan subpolinomial.  
Kami  berharap  untuk  bekerja  pada  beberapa  masalah  aproksimasi  lain  dalam  algoritma grafik, 
misalnya,  faktor  2bertahan  lama  ​- ​o​(​1)​ yang ​untuk  ​k-​ way  cut  (masalah  yang  kami  buktikan 
parameter  tetapnya  dapat  dilacak  di [29]). Kebetulan saya memiliki faktor pendekatan terbaik yang 
dikenal  untuk  masalahmirip  ​k-​ terminal  cut  yang[27],  tetapi  itu  menggunakan  pemrograman  linier. 
Di  sini  ide  umumnya adalah untuk membawa lebih banyak pemahaman kombinatorial, melengkapi 
semua pekerjaan terbaru berdasarkan pemrograman linier dan semi-pasti.  

Tonggak Sejarah ​Konsep tonggak agak aneh ketika Anda mencari ide-ide yang mengejutkan. 
Namun, sebagai tujuan perantara dalam algoritme yang efisien, Anda hanya perlu menemukan cara 
baru, yang memungkinkan Anda melakukan  


lebih  baik  daripada  orang  lain.  Semakin  signifikan  dan  menarik peningkatan, semakin kuat tempat 
Anda  mempublikasikan.  Contoh  yang  baik  adalah  sehubungan  dengan  3-pewarnaan  di  mana  Ken 
dan  saya  sudah  berpikir  kita  melihat  jalan  menuju  peningkatan  kombinatorial  pertama  dalam  22 
tahun.  Sekalipun  ini  tidak  akan  menutup  masalah,  saya  berharap  hasil  seperti  itu  akan 
mengarahkan  minat  pada  STOC  /  FOCS.  Kita  dapat  melihat  sebagai  tonggak  semua  target  di  atas 
yang  saya  nyatakan  bahwa  saya  sudah  berharap  tentang  suatu  jalan.  Pandangan lain adalah bahwa 
banyak  penemuan  menarik  diharapkan  selama  proyek  berlangsung. Kecuali untuk mahasiswa PhD 
tahun  pertama,  saya  berharap  setiap  anggota  menjadi  bagian dari penemuan tingkat STOC / FOCS 
/ SODA 1-3 dalam setahun.  

Denmark perspektif  

Denmark  telah  berkomitmen  kuat  untuk  algoritma  dan  teori  komputasi,  terutama  ​di  Arhus 

˚ ​
University  dengan  tidak  kurang  dari  tiga  pusat mengesankan ​ keunggulan dari Denmark Na ​tional 

Research  Foundation  (BRICS,  MADALGO,  dan  CTIC).  Kami  memiliki  Lars  Arge  dari  Arhus 

dengan  ˚​   penghargaan  Riset  Elit  Denmark  dari  tahun  2010  dan  Rasmus  Pagh  dari  ITU  dengan 
Hibah  Awal  Sapere  Aude  Denmark  dari  tahun  2011.  Denmark  memiliki  kedudukan  yang  sangat 
kuat  dalam  algoritme  di  Eropa,  hanya  didominasi  oleh  Israel.  Namun,  kembalinya  saya  ke 
Denmark  akan  membawa  tingkat  kekuatan,  visibilitas,  dan  pengakuan  internasional  yang  baru 
dalam algoritme dasar dan struktur data.  
Seperti  yang  disebutkan  dalam  CV  saya,  saya  adalah  satu-satunya  di  dunia  yang  berada  di 
dewan  editorial  dari  tiga  jurnal  teratas  untuk  penelitian  algoritmik.  Secara  khusus,  saya  adalah 
editor  area  "algoritme  dan  struktur data" untuk jurnal ilmiah utama ​ACM, J. ACM.​  Tidak ada orang 
lain  di  Denmark  yang  termasuk  dalam  salah  satu  dari  mereka,  tetapi  Arge  berada  di  dewan 
editorialpilihan  keempat  ​Algorithmica.​   Demikian  juga,  ketika  kita  melihat  konferensi  teori  atas 
STOC  /  FOCS,  saya  telah  menggunakan  9  PC.  Ini  hampir  dua  kali  lipat  dari  gabungan  Denmark 
lainnya.  Alasan  utama  kehadiran  saya  yang  kuat  di  papan  editorial  dan  PC  ini  adalah  penelitian 

saya.  Saya  memiliki  26  dokumen  STOC  /  FOCS  yang  hampir  tiga  kali  lipat  dari  dokumen  ​orang 

lain  di  Denmark.  Peter  Bro  Miltersen  dari  Arhus  kedua  dengan  9  stoc  /  FOC  pa-  ˚​   ​pers.  Pada 

konferensi  algoritma  atas  SODA  saya  memiliki  23  makalah  sementara  Gerth  Brodal  dari  Arhus 

adalah  ˚​   kedua  dengan  10  makalah  SODA.  Ini  adalah  tempat  terkuat  dari  perspektif  algoritmik 
umum  (lihat,  misalnya,  ​www.en.wikipedia.org/wiki/List  ​dari  ​komputer  ​ilmu 
konferensi​).  Faktor  h  saya  [Google  Cendekia]  adalah  44.  Dalam  algoritme  di  Denmark,  Lars 
Arge  berada  di  urutan  kedua  dengan  34.  Saya  adalah  Anggota  ACM  dalam  algoritme dan struktur 

data.  Di  Denmark,  satu-satunya  yang  ​memiliki  peringkat  ACM  tertinggi  dalam  ilmu  komputer 

adalah  Christian  Søndergaard  Jensen  dari  Arhus  dalam  database,  ˚​   Neil  Jones  pensiun  dari  DIKU 
dalam bahasa pemrograman, dan Dines Bjørner pensiun dari DTU dalam metode formal.  

10 

Fokus  dari  pusat-pusat  di  Arhus  berbeda.  MADALGO  difokuskan  pada  algoritma  geometris 
dan  hierarki  memori  eksternal  (ini  menunjukkan,  misalnya,  dalam  catatan  kuat  Arge  dalam 
geometri  komputasi  dengan  10  makalah  SoCG)  sedangkan  saya  bekerja  pada  masalah  algoritmik 
yang  lebih  umum.  Hubungan  antara  MADALGO  dan  Christian  S.  Jensen  dalam  basis  data spasial 
akan  sangat  menarik.  CTIC  lebih  jauh  dengan  fokusnya  pada  kompleksitas,  kriptografi,  dan 
permainan  (subarea  lain  dari  ilmu  komputer  teo  retikal  dicakup  oleh  STOC  /  FOCS).  Namun 

demikian,  ada  banyak  hubungan  yang  menarik  ​,  dan  saya  mengharapkan  banyak  kolaborasi  yang 

bermanfaat  dengan  Arhus,  misalnya,  kita  memerlukan  algoritme  subkuadrat  ˚​   untuk 


mempertimbangkan  data  yang  begitu  besar  sehingga  dibutuhkan  memori  eksternal.  Dengan  minat 
saya  pada  tabel  hashing  dan  hash,  saya  lebih  tertarik  pada  Rasmus  Pagh  dan  bersama-sama  kami 
akan  membentuk  grup  terkuat  untuk  ini  di  dunia.  Pada  tahap  tertentu,  akan  jelas  bagi  kita  untuk 
menggabungkan kekuatan dan menciptakan pusat yang lebih besar bersama-sama.  
Secara  matematis,  koneksi  dan  inspirasi  utama  saya  di  Denmark  adalah  Carsten  Thomassen 
dari  DTU.  Ketika  saya  menjadi  sarjana  di  DTU, dia menasihati saya tentang bagaimana mendekati 
masalah  terkenal  yang  telah  mengalahkan  banyak  peneliti;  yaitu  bekerja  secara  fleksibel  pada 
beberapa  target  keuntungan  tinggi  secara  paralel,  beralih  di  antara  mereka  dan  mengikuti inspirasi 
Anda  sehingga  masalah  yang  terlalu  sulit  tidak  menghentikan  Anda.  Pendekatan  organik  terhadap 
target  di  luar  perencanaan  ini  telah  membawa  kami  berdua  pada  banyak  terobosan. 
Menggabungkan  latar  belakangnya  dalam  teori  grafik  dengan  latar  belakang  algoritmik  saya  yang 
lebih  banyak  akan  menghasilkan  kekuatan  yang  kuat  dalam  teori  grafik  algoritmik  di  mana  kami 
juga akan membawa Ken-Ichi Kawarabayashi dari Jepang.  
Saya  berharap  untuk  kembali  sebagai  sosok  pemersatu  untuk algoritme di Denmark. Meskipun 

sebagian  besar  berada  di  luar  ​negeri,  saya  telah  berkolaborasi  dengan  banyak  peneliti  algoritma 

Denmark,  misalnya,  Miltersen  (Arhus)  di  [2],  ˚​   Pagh  (ITU)  di  [32],  Alstrup  (ITU),  Rauhe  (ITU), 

dan  Gørtz  (DTU)  di  [1],  Bille  (DTU)  di  [7],  dan  saya  ​memiliki  makalah  dalam  cara  kerja  dengan 

Arge  (Arhus).  Kolaborator  internasional  saya  akan  memberikan  seminar  ˚​   dan  secara  luas 
meningkatkan  aktivitas  algoritmik  di  wilayah  tersebut,  tetapi  ini  membutuhkan  anggaran 
pengunjung  yang  kuat  untuk  mengundang  mereka.  Jika  tidak, saya akan menjadi pengunjung yang 
berkeliling  dunia  dengan  biaya  yang  ditanggung  oleh  kolaborator  saya,  dan  dengan  manfaat  yang 
jauh lebih sedikit ke Denmark.  

Saya  ingin  menekankan  bahwa  dibandingkan  dengan  center  di  Arhus,  apa  yang  saya  ajukan 

sekarang  adalah  kecil.  ˚​   Anggap  saja  sebagai  perbedaan  antara  pesta  besar  di  mana  tuan  rumah 

berlarian  untuk  memastikan  semua  orang  ​senang,  dan  acara  kecil  dengan  beberapa  teman  tempat 

Anda  benar-benar  bisa  mengobrol.  Arhus  telah  melakukan  pekerjaan  luar  biasa  ˚​   dengan  banyak 
PostDocs  dan  acara-acara  hebat.  Bakat  saya  adalah  untuk  penelitian  dan  untuk  berkolaborasi, 
menginspirasi,  dan  membimbing  pada  tingkat  yang  lebih  pribadi,  menggunakan  kekuatan  dan 
pengalaman saya yang luas dalam algoritme dan struktur data. Ini adalah mengapa saya hanya ingin 
(jauh lebih murah) selektif mini-pusat di mana saya bisa lebih  

11 
terlibat langsung dalam kegiatan penelitian (kurang manager, lebih leader).  

Anggota proyek  

Saya  akan  mencurahkan  50%  dari  total  waktu  kerja  saya  secara  eksklusif  untuk  proyek  ini  di 
Universitas  Copen  hagen.  Selain  itu,  saya  akan  menghabiskan  25%  waktu  saya  untuk  mengajar 
reguler,  menambahkan  setidaknya  75%  dari  total  waktu  saya  di  Kopenhagen  dengan  visi 
membangun  kembali  diri  saya  secara  permanen.  Proyek  ini  mencakup  seorang  mahasiswa  PhD 
setiap  saat:  satu di tahun 1-3, dan satu di tahun 4–6 (tahun lalu dibayar oleh departemen). Selain itu 
proyek  tersebut  menyertakan Post Doc di tahun 2–3. Kecuali untuk mahasiswa PhD tahun pertama, 
saya  berharap  setiap  anggota  menjadi  bagian  dari  penemuan  tingkat  STOC  /  FOCS  /  SODA  1-3 
dalam  setahun.  Akhirnya,  untuk  membangun  titik  fokus  baru  di  area  tersebut,  diharapkan  ada 
pengunjung  terkemuka  yang  berubah  untuk  kolaborasi  dan  inspirasi.  Biaya  pastinya  akan 
tergantung  pada  pengunjung.  Kadang-kadang  kita  akan  memiliki pengunjung jangka panjang yang 
membutuhkan  gaji,  misalnya,  seorang  profesor  AS  yang sedang cuti panjang dengan gaji 70% dari 
lembaga  rumah.  Di  lain  waktu,  kami  akan  memiliki  pengunjung  jangka  pendek  yang  tidak 
membutuhkan  gaji,  tetapi  lebih  banyak  biaya  perjalanan.  Pengunjung  yang  diharapkan  adalah 
kolaborator  saat  ini  seperti  Kawarabayachi,  Patrascu,  Zwick,  tetapi  secara  umum  saya  akan 
mengundang  mereka  yang  berada  di  balik  perkembangan  baru  yang  paling menarik terkait dengan 
penelitian kami.  
Terkait  dengan  proyek  tersebut,  saya  akan  merekrut  asisten  profesor  jalur  masa  jabatan  baru 
dalam  algoritme  di  Universitas  Kopenhagen.  Saya  juga  akan  memiliki  seorang  mahasiswa  PhD 
dari  departemen  tersebut.  Akhirnya,  ketika  kita  memiliki  beberapa  tahun  untuk  didirikan,  saya 
berharap mendapatkan pendanaan alternatif untuk Post Doc untuk tahun 4–5.  

Referensi  

[1] S. Alstrup, T. Rauhe, IL Gørtz, M. Thorup, dan U. Zwick. Union-find dengan penghapusan 
waktu yang konstan. ​Proc. ICALP ke-32,​ halaman 78–89, 2005.  

[2] A. Andersson, PB Miltersen, S. Riis, dan M. Thorup. Kamus statis pada AC​0 ​RAM: ​Waktu 
p​
kueri ​Θ​(​ log​n/​ ​loglog​n​) ​diperlukan dan cukup. Dalam P
​ roc. 37 FOCS,​ halaman 441–  

450, 1996.  

[3] A. Andersson dan M. Thorup. Kumpulan terurut dinamis dengan pohon penelusuran 
eksponensial. ​J. ACM,​ 54 (3): Pasal 13, 2007.  

12 
[4]  R.  Agarwala,  V.  Bafna,  M.  Farach,  B.  Narayanan,  M.  Paterson,  dan  M.  Thorup.  Pada 
perkiraan  taksonomi  numerik  (menyesuaikan  jarak  dengan  metrik  pohon).  ​SIAM  J.  Comput.,​  
28 (3): 1073 - 1085, 1999.  

[5] S. Arora, E. Chlamtac, dan M. Charikar. Jaminan perkiraan baru untuk bilangan kromatik. 
Proc. STOC ke-38, ​215-224, 2006.  

[6] S. Arora dan R. Ge, Alat Baru untuk Pewarnaan Graf. ​Proc. 14 APPROX-RANDOM,​ halaman 
1–12, 2011.  

[7] P. Bille dan M. Thorup. Pencocokan ekspresi reguler dengan multi-string dan interval. ​Proc. 
SODA ke-21​, halaman 1279–1308, 2010.  

[8] A. Blum. Algoritma Perkiraan Baru untuk Pewarnaan Grafik. ​J. ACM, 4​ 1 (3): 470–516, 1994.  
~​
​ /14)​Algoritma -coloring selama 3-yg berhasil Grafik. ​Inf. 
[9] A. Blum dan DR Karger. ​O​ (n3
Proses. Lett. 6​ 1 (1): 49–53, 1997.  

[10] AZ Broder, M. Charikar, AM Frieze, dan M. Mitzenmacher. Independen per mutasi. ​J. 
Comput. Sistem Sci.​, 60 (3): 630–659, 2000.  

[11] AL Buchsbaum, HJ Karloff, C. Kenyon, N. Reingold, dan M. Thorup. OPT versus LOAD 
dalam alokasi penyimpanan dinamis. ​SIAM J. Comput.,​ 33 (3): 632–646, 2004.  

[12] E. Chlamtac. Algoritma Perkiraan Menggunakan Hierarki Re laksasi Pemrograman 


Semidefinite. ​Proc. FOCS ke-48, ​687–696, 2007.  

[13] M. Dietzfelbinger, AR Karlin, K. Mehlhorn, FM Heide, H. Rohnert, dan RE Tarjan. Dy namic 


Perfect Hashing: Batas Atas dan Bawah. ​SIAM J. Comput.,​ 23 (4): 738–761, 1994.  

[14] I. Dinur, E. Mossel, dan O. Regev. Kekerasan Bersyarat untuk Perkiraan Pewarnaan. ​SIAM J. 
Computing, ​39 (3): 843-873, 2009.  

[15] N. Duffield, C. Lund, dan M. Thorup. Memperkirakan distribusi aliran dari statistik aliran 
sampel. ​ACM / IEEE Trans. Networking,​ 13 (5): 933–946, 2005. Diundang dari SIGCOMM'03.  

[16] N. Duffield, C. Lund, dan M. Thorup. Pengambilan sampel prioritas untuk estimasi jumlah 
subset yang berubah-ubah. ​J. ACM,​ 54 (6): Pasal 32, 2007.  

13 
[17] AI Dumey. Pengindeksan untuk sistem memori akses acak cepat. ​Komputer dan Otomasi,​ 5 
(12): 6–9, 1956.  

[18] RW Floyd. Algoritma 97: Jalur Terpendek. ​Comm. ACM, ​5 (6): 345, 1962.  

[19] B. Fortz, J. Rexford, dan M. Thorup. Rekayasa lalu lintas dengan protokol perutean IP 
tradisional. ​Majalah Komunikasi IEEE​, 40 (10): 118–124, 2002.  

[20] B. Fortz dan M. Thorup. Rekayasa lalu lintas internet dengan mengoptimalkan bobot OSPF. 
Dalam ​Proc. INFOCOM 19​, halaman 519–528, 2000. Sebagian dicakup oleh [21].  

[21] B. Fortz dan M. Thorup. Meningkatkan kapasitas Internet menggunakan pencarian lokal. 
Operasi Komputasi dan Aplikasi,​ 29 (1): 13-48, 2004.  

[22] ML Fredman, J. Komlos dan E. Szemer ´ edi. Menyimpan Tabel Renggang dengan 0 ´ ​(​1​)
Waktu Akses Kasus Terburuk. ​J. ACM​, 31 (3): 538–544, 1984.  

[23] ML Fredman dan ME Saks. Kompleksitas probe sel dari struktur data dinamis. ​Proc. 21st 
STOC​, halaman 345–354, 1989.  

[24] T. Hagerup, PB Miltersen, Kamus Penentu R. Pagh. ​J. Algoritma ​41 (1): 69-85 2001.  

√​
[25] Y. Han dan M. Thorup. Pengurutandalam ​O​(​bilangann​ bulatloglog​n)​ ​waktu dan ruang linier 
yang diharapkan. Dalam ​Proc. 43nd FOCS​, halaman 135–144, 2002.  

[26]  J.  Holm,  K.  Lichtenberg,  dan  M.  Thorup.  Poli-logaritmik  deterministik  algoritma  dinamis 
penuh  untuk  konektivitas,  spanning  tree  minimum,  2-edge  dan  biconnectivity.  ​J.  ACM​,  48 
(4): 723–760, 2001.  

[27] D. Karger, P. Klein, C. Stein,, M. Thorup, dan N. Young. Algoritme pembulatan untuk 
embedding geometris dari potongan multiway minimum. ​Matematika. Oper. Res.​, 29 (3): 
436–461, 2004.  

[28] DR Karger, R. Motwani, M. Sudan. Perkiraan Pewarnaan Graf dengan Program Semidefinite 
ming. ​J. ACM, 4​ 5 (2): 246-265 (1998)  

​ otongan-wayukuran terbatas adalah 


[29] K. Kawarabayashi dan M. Thorup.minimum dengan ​kP
parameter tetap yang dapat diatur, ​Proc. 52nd FOCS​, halaman 160–169, 2011.  

14 
[30] R. Pagh. Kompromi untuk Kamus Efisien Kasus Terburuk. ​Nord.J. Comput. 7​ (3): 151-163 
(2000)  

[31] A. Pagh dan R. Pagh. Uniform Hashing dalam Waktu Konstan dan Ruang Optimal. ​SIAM J. 
Comput. ​38 (1): 85-96 (2008)  

[32] A. Pagh, R. Pagh, dan M. Thorup. Tentang penyortiran integer adaptif. ​Proc. ESA 12,​  
halaman 556–579, 2004.  

[33]  M.  Paterson,  Y.  Peres,  M.  Thorup,  P.  Winkler,  dan  U.  Zwick.  Overhang  maksimum.  ​The 
American  Mathematical  Monthly​,  116  (9):  763–787,  2009.  Ditampilkan  dalam  ​Science,​  
halaman 323: 875, 13 Februari 2009. Pemenang bersama MAA Robbins Award 2011.  

[34] M. Patras¸cu dan M. Thorup. Pertukaran ruang-waktu untuk pencarian sebelumnya. Dalam 
Proc. STOC ke-38​, halaman 232–240, 2006.  

[35] M. Patras¸cu dan M. Thorup. Pengacakan tidak membantu pencarian pendahulu. Dalam ​Proc. 
SODA ke-18​, halaman 555–564, 2007.  

[36] M. Patras¸cu dan M. Thorup. Merencanakan pembaruan konektivitas yang cepat. Dalam ​Proc. 
FOCS ke-48​, halaman 646–654, 2007.  

[37] M. Patrascu dan M. Thorup. Tentang kemerdekaan dibutuhkan oleh probing linier dan 
kemerdekaan minwise. Dalam ​Proc. ICALP ke-36​, halaman 715–726, 2010.  

[38] M. Patras¸cu dan M. Thorup. Kekuatan hashi tabulasi sederhana. ​Proc. STOC ke-43​, halaman 
1–10, 2011. Versi lengkap ​http://arxiv.org/abs/1011.5200 ​akan muncul di ​J. ACM​.  

[39] M. Patras¸cu dan M. Thorup. Jangan terburu-buru membentuk serikat: luangkan waktu untuk 
menemukan akar Anda. ​Proc. STOC ke-43,​ halaman 559–568, 2011.  

[40] A. Siegel. Pada kelas universal dari fungsi hash waktu-konstan yang sangat acak. ​SIAM J. 
Computing​, 33 (3): 505–543, 2004. Diumumkan di FOCS'89.  

[41]  JP  Schmidt,  A.  Siegel,  dan  A.  Srinivasan. Batasan Chernoff-Hoeffding untuk aplikasi dengan 


independensi  terbatas.  ​SIAM  Journal  on  Discrete  Mathematics,​   8  (2):  223-250,  1995.  Lihat 
juga SODA'93.  

15 
[42] C. Thomassen. Setiap grafik planar dapat dipilih 5. ​J. Comb. Teori, Ser. B​, 62 (1): 180–181, 
1994.  

[43] M. Thorup. Oracle kompak untuk jangkauan dan perkiraan jarak dalam digraf planar. ​J. ACM,​  
51 (6): 993–1024, 2004.  

[44] M. Thorup. Min-cut yang sepenuhnya dinamis. ​Combinatorica​, 27 (1): 91–127, 2007.  

​ emotongan-waymelalui pengepakan pohon rakus deterministik. ​Proc. 


[45] M. Thorup.minimum ​kP
STOC ke-40,​ halaman 159–166, 2008.  

[46] M. Thorup. Kekuatan kombinatorial dalam prosesor multimedia. ​ACM SIGARCH Computer 
Archi tecture News​, 31 (5): 5–11, 2003.  

[47] M. Thorup dan U. Zwick. Perkiraan jarak oracle. ​J. ACM,​ 52 (1): 1–24, 2005. [48] M. Thorup. 

Kesetaraan antara antrian prioritas dan pengurutan. ​J. ACM,​ 54 (6): Pasal 28, 2007. [49] M. 

Thorup. Memetakan grafik dalam waktu polinomial. Dalam ​Proc. FOCS ke-39​, halaman 396–405, 

1998.  

[50] M. Thorup. Jalur terpendek sumber tunggal tidak terarah dengan bobot bilangan bulat positif 
dalam waktu linier. ​J. ACM​, 46 (3): 362–394, 1999.  

[51] M. Thorup. Antrian prioritas bilangan bulat dengan kunci penurunan dalam waktu konstan 
dan masalah jalur terpendek sumber tunggal. ​J. Comput. Syst. Sc.,​ 69 (3): 330–353, 2004.  

[52] M. Thorup. Hash string untuk probing linier. Dalam ​Proc. SODA ke-20​, halaman 655–664, 
2009.  

[53] M. Thorup. Timeout dengan Time-Reversed Linear Probing. ​Proc. INFOCOM ke-30,​  
halaman 166– 170, 2011.  

[54] M. Thorup dan Y. Zhang. Pencirian 5-universal berbasis tabulasi dan probing linier. ​Proc. 
12th ALENEX,​ halaman 62–76, 2010.  

[55] MN Wegman dan L. Carter: Fungsi Hash Baru dan Penggunaannya dalam Otentikasi dan Set 
Kesetaraan. ​J. Comput. Syst. Sci. 2​ 2 (3): 265-279 (1981). Diumumkan di FOCS'79.  

[56] A. Wigderson. Meningkatkan Jaminan Kinerja untuk Pewarnaan Grafik Perkiraan ​J. ACM​, 30 
(4): 729-735, 1983.  

16 

Anda mungkin juga menyukai