če se z računalnikom ne da komunicirati, potemtakem lahko stvar ostale le zgolj kot matematični model in ne kot stvar, ki dejansko funkcionira.
ljudje dejansko delajo na principu računalnikov, ki delujejo na nivoju mulekul, vendar vsaj koliko je meni znano še niso kaj daleč. da bi pa komu ratalo vzpostaviti delujoč prototip, pa še nisem slišal.
v članku piše, da je ta dotični računalnik sposoben izvesti miljardo operacij na sekundo z 99.7% natančnostjo.
če gledamo računalnik kot na stroj, je le-ta 100% natančen, če pa ne ustreza več matematičnim modelom računalnikov, na katerih so zgrajenih današnji računalniki (von neumannov model).
predstavljajmo si, da imamo računalnik, ki zmore 10^15 matematičnih operacij na sekundo z 99.7% natančnostjo. to pomeni, da bo 0.3% rezultatov napačnih, oziroma 3000000000000 računskih operacij vsako sekundo napačnih! Tak stroj je dejansko neuporaben, saj je potreba znotraj cele množice rezultatov iskati tistih 0.3% nepravilnih in jih izločiti. za iskanje nepravilnih rezultatov pa potrebujemo neko matematično funkcijo max(), ki oceni kakovost rezultata. če se ta funkcija max() izvaja na istem računalniku, potem je njena točnost zopet 99.7%, kar pomeni, da zopet ne deluje pravilno.
da bi max() res izločala pravilne rezultate, bi tako mogla teči na drugem, 100% pravilno računajočem računalniku, ki bi pa zato, da bi preveril 10^15 rezultatov na sekundo, moral biti sposoben izračunati nekajkrat 10^15 matematičnih operacij.
in če bi že imeli tak računalnik, zakaj bi ga uporabljali zato, da bi preverjal rezultate 99.7% točnega računalnika, namesto, da bi dali problem računati že temu?
... tko tole je čist lamerska razlaga.
drugače pa se pri raziskavah novih generacij računalnikov veliko dela na mehki logiki, ki v nasprotju z navadno logiko deluje z analognimi signali (realna števila), namesto z digitalnimi signali (števili 0 in 1). na tak način je možno doseči veliko večje hitrosti računanja, a se izvedba takega računalnika zelo zakomplicira.