Wie funktioniert ein Computer

Hallo Leute,

alle von uns benutzen sie, aber ich denke viele, wie ich, haben keinen Plan wie sie funktionieren:
Die rede ist von Computern.

Nun würde ich gerne wissen, wie so ein „Teil“ überhaupt funktioniert?

Ich habe ja schoneinmal was von Binaercods etc gelesen, aber wie entsteht aus diesem 101000001001 ein „B“ (man möge mir verzeihen, dass diese Zahl willkürlich ist).

Wie entstehen also diese Bilder, die ich vor mir am PC sehe, oder noch dümmer gefragt, wie rechnet ein Computer.

Ich würde mich über eine Antwort freuen (Darf ruhig auch ein bisschen in physikalische Theorien abrutschen)

Hallo Sebastian,

alle von uns benutzen sie, aber ich denke viele, wie ich,
haben keinen Plan wie sie funktionieren:
Die rede ist von Computern.

Deine Frage erfordert so umfangreiche Antwort, daß dies hier nicht
zu meistern ist.Besser Du „goolest“ ein bisschen rum , z.Bsp.:
http://de.wikipedia.org/wiki/Computer
oder sonstwo.

Nun würde ich gerne wissen, wie so ein „Teil“ überhaupt
funktioniert?
Ich würde mich über eine Antwort freuen (Darf ruhig auch ein
bisschen in physikalische Theorien abrutschen)

Wie gesagt, eine umfangreiche Lehrstunde(n) ist nicht drin.
Gruß VIKTOR

Hallo Sebastian

Die Eigenschaften und Verwendung des Binär Codes und die Funktion eines Computers sind zweierlei Dinge.
Es ist richtig, dass bei den meisten verwendeten PC der Binärcode verwendet wird.
Das ist aber zunächst alles.
Wenn du in einer Suchmaschine „Funktion Computer“ eingibst, bekommst du einen Haufen Links, von den du dir die am meisten gefälligen heraussuchen kannst.
Analog verhält es sich mit der Eingabe „Funktion Binärcode“; auch hieer wird bestimmt einiges dabei sein, mit dem du deine Fragen hinreichend beantworten kannst.
Es ist sicher nicht Sinn des Forums, viel Energie in eine Ausarbeitung zu stecken, die schon mehrfach vorhanden ist.

Gruß
Rochus

Hallo auch,

alle von uns benutzen sie, aber ich denke viele, wie ich,
haben keinen Plan wie sie funktionieren:
Die rede ist von Computern.

Nun würde ich gerne wissen, wie so ein „Teil“ überhaupt
funktioniert?

au ha…da hast du dir ja was vorgenommen.
http://www.gat-blankenburg.de/pages/fach/info/comput…

Ich habe ja schoneinmal was von Binaercods etc gelesen,

http://de.wikipedia.org/wiki/Dualsystem

aber
wie entsteht aus diesem 101000001001 ein „B“ (man möge mir
verzeihen, dass diese Zahl willkürlich ist).

guckst du…ASCII-Code

http://de.wikipedia.org/wiki/American_Standard_Code_…

Wie entstehen also diese Bilder, die ich vor mir am PC sehe,

das würde hier den Rahmen sprengen…
aber zB.
http://de.wikipedia.org/wiki/Programmiersprache

oder noch dümmer gefragt, wie rechnet ein Computer.

0+0=0
1+0=1
0+1=1
1+1=10
bzw.siehe Dualsystem

Ich würde mich über eine Antwort freuen (Darf ruhig auch ein
bisschen in physikalische Theorien abrutschen)

…hat mit Physik eigentlich nix zu tun…eher mit Mathe

Gruß Angus

Hallo,

Nun würde ich gerne wissen, wie so ein „Teil“ überhaupt
funktioniert?

die Frage ist so wie: „Wie funktioniert die Welt?“.
Da kannst du 50 Jahre studieren und wirst trotzdem noch
lange nicht bis ins zur Ursache allen Seins vorgedrungen sein.

Ich habe ja schoneinmal was von Binaercods etc gelesen, aber
wie entsteht aus diesem 101000001001 ein „B“ (man möge mir
verzeihen, dass diese Zahl willkürlich ist).
Wie entstehen also diese Bilder, die ich vor mir am PC sehe,
oder noch dümmer gefragt, wie rechnet ein Computer.
Ich würde mich über eine Antwort freuen (Darf ruhig auch ein
bisschen in physikalische Theorien abrutschen)

Wo sollte man mit den vielen Büchern anfangen?
Bei den Grundlage der E-Technik oder doch erstmal
klassische Physik und dann Quantenphysik?

Aber mal ein Vorschlag zum Weg:

  • Wie funktioniert eine Diode
  • Wie funktioniert ein Transistor
  • Wie funktioniert eine einfacher digitaler Schalter
  • Wie funktionieren logische Grundschaltungen and,nand, or,nor,xor
  • Wie funktioniert ein Flip-Flop (einfache Speicherzelle)
  • Wie funktioniert eine Schieberegister, Zähler
  • Wie funktioniert ein Addierer
  • Wie macht man aus einfachen Grundschaltungen eine Rechneneinheit
  • Wie schaltet man Recheneinheit, Register und Speicher zusammen zum Prozessor
  • Dann geht es weiter mit CPU-Achitekturen und speziellen PC-Komponenten
  • Thema Grafikkarten mit speziellen Recheneinheiten.
  • Dann fehlt noch Wissen zu BUS-Systmen und Netzwerken
    usw. usw.
    Viel Spaß die nächsten Jahre :wink:
    Gruß Uwi

Hallo Fragewurm,

über eine Antwort freuen (Darf ruhig auch ein
bisschen in physikalische Theorien abrutschen)

http://www.elektronik-kompendium.de/sites/dig/index.htm

MfG Peter(TOO)

Hallo Sebastian,

wie Du aus den anderen Antworten wohl schon herausgehört hast, ist die Antwort auf diese Frage so umfänglich, dass sie hier auch beim besten Willen nicht zu leisten ist. Wenn Dich das Thema also wirklich interessiert, wirst Du um ein Selbststudium nicht herumkommen. Um etwas Orientierung zu stiften, nachfolgend ein kleiner Leitfaden:

Ganz generell gesprochen: ein Computer verarbeitet Informationen. Das heißt, dass Informationen eingegeben werden (Input), auf eine zielführende Art und Weise bearbeitet werden und anschließend ausgegeben werden.

Ein Beispiel, damit das nicht so theoretisch ist: Du hast ein Foto mit einer Digitalkamera in einem hoch auflösenden Format gemacht. Die Bildinformation liegt also bereits in digitaler Form vor. Um das Bild per Mail zu verschicken, willst Du die Datenmenge reduzieren. Dafür gibst Du das Bild im Ursprungsformat ein und ein Programm reduziert die Datenmenge nach bestimmten Regeln, so dass die wichtigen Bildinformationen nicht verloren gehen. Dann wird das Bild in dem neuen Format ausgegeben (irgendwo abgespeichert).

Zur Tätigkeit eines Computers bedarf es zweier Dinge:

  1. eines Regelsatzes, der vorgibt, wie mit den Informationen zu verfahren ist (also ein Programm, die software) und

  2. eines physikalischen Substrates, auf dem das Programm läuft, also der eigentliche Computer selbst (die hardware).

Es hat bereits in früheren Jahrhunderten Computer gegeben, sogenannte Rechenmaschinen, die mechanisch funktioniert haben. Dort steckte die software im Aufbau des Apparates: Wenn Du zwei Zahlen addieren wolltest, hast Du sie über Tasten oder Walzen eingegeben, dann haben sich, dadurch angetrieben, im Inneren viele Zahnräder gedreht und am Ende auf einer Walzenreihe mit Ziffern das Ergebnis ausgegeben.

Ein Mathematiker hatte in den dreißiger Jahren des letzten Jahrhunderts die Idee, die Programme, mit denen ein Input manipuliert werden soll, um einen bestimmten Output zu erzeugen, formal hinzuschreiben, ohne sich großartig um die hardware zu kümmern, auf der das Programm laufen sollte.

Parallel dazu wurden die ersten Computer entwickelt, die programmierbar waren, bei denen also nicht ein bestimmtes Programm fest verdrahtet war. Entsprechend dem technischen Stand der Zeit arbeiteten die mit Relais. Das sind elektrische Bauteile, die entweder offen oder geschlossen sind, also einen von zwei Zuständen realisieren (an oder aus, 0 oder 1, Strom fließt, Strom fließt nicht). Um Informationen so verarbeiten zu können, müssen sie erst einmal in eine Form gebracht werden, die von so einem Computer verarbeitet werden kann, also in eine Folge zwei Zustände.

Das geht aber eigentlich immer: wenn Du z.B. ein Bild hast, zerlegst Du es in Bildpunkte und Du ordnest jedem Bildpunkt einen Zahlenwert für die Helligkeit zu (Schwarz-Weiß-Bild) oder drei Zahlen für die Anteile der Farben Rot, Geld und Blau an der Gesamthelligkeit (zumindest vereinfacht). So, damit liegt das Bild als (lange) Folge einzelner Zahlen vor. Man kann aber jede Zahl auch als Binärzahl darstellen (Binärcode), also als Abfolge von 0 und 1. Damit kann jede Zahl durch einen Computer verarbeitet werden.

Mit der Zeit hat man die Relais durch Transistoren ersetzt, wodurch die Computer leistungsfähiger wurden. Dann lernte man, wie man die Transistoren miniaturisieren konnte, so dass etliche Millionen auf einem Chip (Prozessor) Platz haben. Entsprechend stieg die Verarbeitungskapazität. Dazu kam, dass diese kleinen Transistoren viel weniger Zeit zum Umaschalten von 0 auf 1 brauchen, also für die eigentliche verarbeitung der Information. Der Kehrwert der zum Umschalten benötigten Zeit ist die Taktfrequenz, die auch immer weiter stieg.

Dadurch konnte man immer mehr mit den Computern anstellen und man stelte fest, dass es Aufgaben gibt, die immer wiederkehren (z.B. Daten speichern, Drucken, Bildschirmdarstellung und dergleichen). Für solche wiederkehrenden Aufgaben schuf man dann eigene Programme (das jeweilige Betriebssystem) und eigene hardware (I/O-Prozessoren, Grafikkarten und dergleichen). Für die eigentliche Informationsverarbeitung wurden dann je eigene Programme geschaffen (Textverarbeitung, Bildverarbeitung und dergleichen), die sich die Funktionen des Betriebssystems zunutze machen.

Das war ein kurzer geschichtlicher Abriss, der vielleicht einiges verdeutlicht. So war es die alleinige Verfügbarkeit von Relais, die dazu geführt hat, dass man Daten im Binärcode darstellt. Und dabei ist man geblieben. Wenn Du versuchst, diesen geschichtlichen Ablauf grob nachzuvollziehen, verstehst Du vielleicht auch besser, warum manche Dinge so sind, wie sie sind - viel Spaß!

Grüße, Thomas

Hallo,

vlt. hilft Dir dieser Link weiter:

http://de.wikipedia.org/wiki/Logikus

Ganz unten ist ein Link zu einer Simulation, ich habe aber nicht alles probiert.

Die Idee ist einfach genial. Es sind zehn Mehrfach-Wechselschalter mit denen man durch „Programmieren“, d.h. Drahtbrücken einfache logische Zuordnungen vornehmen kann.

Wenn man jetzt den Menschen, der noch die Schalter bewegen muss, durch Relais ersetzt ist man schon bei Z1 oder Z2 von Conrad Zuse.

Der weitere Weg über Röhren, Transistoren usw. ist bekannt.

Gelegentlich findet man dieses Gerät auf Flohmärkten.

Evtl. reicht aber das Herunterladen des Handbuches aus dem man auch schon vieles entnehmen kann.

Gruß Volker

Hi,

immer noch unübertroffen

http://www.youtube.com/watch?v=5PJZz04JGjs

Gandalf

Hallo Sebastian,

Die rede ist von Computern.
Nun würde ich gerne wissen, wie so ein „Teil“ überhaupt
funktioniert?

ich mische mich nochmal ein, obwohl alle Beiträge hier meinen
ersten unten bestätigen - also nicht Neues für Dich sondern nur
teils gute Links zu Teilgebieten Deiner komplexen Fragestellung.
Aber was zeichnet den Computer so aus ?
Er „arbeitet“ im Prinzip so einfach, daß es einfacher nicht geht,
ja noch nicht mal vorstellbar - aber dies eben ungeheurer schnell.
Dadurch kann man alle Aufgaben auf diese Prinzip abgleichen.
Dieses Prinzip ist so:
Du hast viele runde Löcher und viele runde Stäbe.Du willst wissen
welche Stäbe zu welchen Löchern passen.
Du fängst an und probierst - passt nicht, passt nicht …passt.
Das macht der Computer - nein,nein … ja.
Damit Du nicht zu viele „Proben“ brauchst kannst Du durch
Überlegung den Vorgang optimieren.
Das nennt man Programmieren.

Ich habe ja schon einmal was von Binaercods etc gelesen, aber
wie entsteht aus diesem 101000001001

Da der Computer nur Ja/Nein kann,ist es sinnvoll -oder nur möglich-
alle Daten (auch Zahlen)in einem Ja/Nein- Cod darzustellen und auch
zu „archivieren“. Hier ist 1=ja und 0=nein.
Alles Weitere über Computer ist Erfindung von Ingenieuren und
Programmierern welche die technische Durchführung der Ja/Nein
Vorgänge schneller bzw. bedienungsfreundlich für den Anwender
gestaltet haben.

Wie entstehen also diese Bilder, die ich vor mir am PC sehe,…

Das ist eine besondere Technik, welche gespeicherte oder erzeugte
Daten (s.vor) in sichtbare Punkte auf den Bildschirm bringt, wie
auch beim TV.

oder noch dümmer gefragt, wie rechnet ein Computer.

Das solltest Du „studieren“, aus Büchern oder hier aus den
unzähligen „Links“ welche im Internet dazu angeboten werden.
Gruß VIKTOR

Aber was zeichnet den Computer so aus ?
Er „arbeitet“ im Prinzip so einfach, daß es einfacher nicht
geht,
ja noch nicht mal vorstellbar - aber dies eben ungeheurer
schnell.

ähm - noch einfacher wäre eine analogschaltung.

Dadurch kann man alle Aufgaben auf diese Prinzip abgleichen.
Dieses Prinzip ist so:
Du hast viele runde Löcher und viele runde Stäbe.Du willst
wissen
welche Stäbe zu welchen Löchern passen.
Du fängst an und probierst - passt nicht, passt nicht
…passt.
Das macht der Computer - nein,nein … ja.

sorry, aber: selten so einen unsinn gelesen. seit wann probiert denn ein computer wild in der gegen herum?
die grundlage eines computers sind LOGIKBAUASTEINE. oder-, und-, nicht-gatter. das ist das ‚geheimnis‘. und aus diesen gattern wird komplexeres wie flipflops realisiert, daraus wiederum nächstkopmplexeres wie z.b. zähler. schau dir mal die grundlagen der digitaltechnik an. und verwechsle nicht die arbeitsweise eines computers mit deiner arbeitsweise beim programmieren desselben.

Aber was zeichnet den Computer so aus ?
Er „arbeitet“ im Prinzip so einfach, daß es einfacher nicht
geht,
ja noch nicht mal vorstellbar - aber dies eben ungeheurer
schnell.

ähm - noch einfacher wäre eine analogschaltung.

Bla, Bla

Dadurch kann man alle Aufgaben auf diese Prinzip abgleichen.
Dieses Prinzip ist so:
Du hast viele runde Löcher und viele runde Stäbe.Du willst
wissen
welche Stäbe zu welchen Löchern passen.
Du fängst an und probierst - passt nicht, passt nicht
…passt.
Das macht der Computer - nein,nein … ja.

sorry, aber: selten so einen unsinn gelesen. seit wann
probiert denn ein computer wild in der gegen herum?

Tut mir leid - aber Du hast wirklich nichts verstanden.
Es macht genau was ihm vorgegeben wird -innerhalb des „Prinzips“.

die grundlage eines computers sind LOGIKBAUASTEINE.

Das ändert nichts am Prinzip.
Wenn Du also „Unsinn“ aus meiner Antwort liest liegt dies an Deiner
(arroganten) Inkompetenz.
Halt Dich einfach raus.

Tut mir leid - aber Du hast wirklich nichts verstanden.

tut mir leid, aber du hast kompletten unsinn als beispiel gebracht.

Es macht genau was ihm vorgegeben wird -innerhalb des
„Prinzips“.

und das prinzip ist ausprobieren?
es bleibt unsinn!

die grundlage eines computers sind LOGIKBAUASTEINE.

Das ändert nichts am Prinzip.

doch. das hast du nur nicht kapiert. logik bedeutet ‚wenn-dann‘, nicht ‚schaun wir mal‘! beckenbauer baut keine pcs!

Wenn Du also „Unsinn“ aus meiner Antwort liest liegt dies an
Deiner (arroganten) Inkompetenz.
Halt Dich einfach raus.

ich habe meinen ersten computer noch selber zusammen gelötet und programmiert - nachdem ich im studium ALLES darüber gelernt habe. und ich bin seitdem immer noch im geschäft. erzähl du arroganzling mir nicht, ich wäre inkompetent. du machst dich lächerlich. du bist hier derjenige, der sich raushalten sollte.

3 Like

Tut mir leid - aber Du hast wirklich nichts verstanden.

tut mir leid, aber du hast kompletten unsinn als beispiel
gebracht.

nein

Es macht genau was ihm vorgegeben wird -innerhalb des
„Prinzips“.

und das prinzip ist ausprobieren?

ja.

die grundlage eines computers sind LOGIKBAUASTEINE.

Das ändert nichts am Prinzip.

doch. das hast du nur nicht kapiert. logik bedeutet
‚wenn-dann‘,

das ist schon Programmieren.

nicht ‚schaun wir mal‘!

Genau dies passiert.Die Schaltung ist frei oder nicht.Die Maschine
„schaut“ da wirklich nach.
Der Computer ist eine geistlose Maschine.Was glaubst Du denn ?
„Logikbausteine“ (was immer Du darunter verstehst) beinhalten
festgelegte nicht löschbare Schaltungen (PROM) oder heute mehr feste
„Verdrahtungen“ unter denen Funktionen oder Miniprogramme
ablaufen welche nicht vom Hauptprozessor „getaktet“ werden
brauchen.(Koprozessoren)
Den größten Bereich zur Bearbeitung nimmt der Arbeitsspeicher ein
der keine „Logik“ beinhaltet - wenn sie ihm nicht durch ein
Programm vorgegeben wird.

ich habe meinen ersten computer noch selber zusammen gelötet
und programmiert - nachdem ich im studium ALLES darüber
gelernt habe.

Und hast immer noch nicht begriffen ?
Oder willst Du Dich hier nur wichtig machen ? Lass es.

Tut mir leid - aber Du hast wirklich nichts verstanden.

tut mir leid, aber du hast kompletten unsinn als beispiel
gebracht.

nein

ja.
wir können das so weiter spielen, aber nur um dich darauf aufmerksam zu machen: ich habe ein argument gebracht, warum es unsinn ist. du hast nichts als eine behauptung.

Es macht genau was ihm vorgegeben wird -innerhalb des
„Prinzips“.

und das prinzip ist ausprobieren?

ja.

tja, und damit bist du raus. du hast keine ahnung, was in einem computer passiert.

die grundlage eines computers sind LOGIKBAUASTEINE.

Das ändert nichts am Prinzip.

doch. das hast du nur nicht kapiert. logik bedeutet
‚wenn-dann‘,

das ist schon Programmieren.

blödsinn. erkläre die funktionsweise eines logikgatters, du spezialist.

nicht ‚schaun wir mal‘!

Genau dies passiert.Die Schaltung ist frei oder nicht.Die
Maschine „schaut“ da wirklich nach.

blödsinn. erkläre die funktionsweise einer logikschaltung, du spezialist.

Der Computer ist eine geistlose Maschine.

ach? und wie genau probiert eine geistlose maschine etwas aus?
du hast keine ahnung, du spezialist.

Was glaubst Du denn ?
„Logikbausteine“ (was immer Du darunter verstehst) beinhalten
festgelegte nicht löschbare Schaltungen (PROM)

blödsinn.
informiere dich über die funktionsweise eines logikgatters, du spezialist.
ein prom ist ein ganzer haufen von logikschaltungen, die (genau einmal) programmierbar sind. sowas findest du in keinem modernen computer mehr. dein wissen ist nicht nur falsch, sonder auch noch stand von gestern.

oder heute mehr feste „Verdrahtungen“ unter denen Funktionen oder
Miniprogramme ablaufen welche nicht vom Hauptprozessor „getaktet“ werden
brauchen.(Koprozessoren)

blödsinn.
der hauptprozessor taktet nichts, er wird getaktet. koprozessoren gibt es keine mehr seit erfindung des intel 80486 - im jahr 1989. heutzutage gibt es chipsätze, du spezialist. und in denen laufen keine miniprogramme ab, die findet man als mikroprogramme im prozessor selber, du spezialist.
du hast auch hier keinerlei ahnung.
was man heutzutage als koprozessor bezeichnen könnte, befindet sich auf der grafikkarte. aber auch die wird natürlich nicht vom prozessor getaktet.

Den größten Bereich zur Bearbeitung nimmt der Arbeitsspeicher
ein der keine „Logik“ beinhaltet - wenn sie ihm nicht durch ein
Programm vorgegeben wird.

kompletter blödsinn. im arbeitsspeicher passiert genau das, was der hintere teil des namens sagt: es wird gespeichert. gearbeitet wird im prozessor, du spezialist. und damit es schneller geht, hat dieser seinen eigenen, schnellen arbeitsspeicher - den cache. mehrstufig auch noch.

ich habe meinen ersten computer noch selber zusammen gelötet
und programmiert - nachdem ich im studium ALLES darüber
gelernt habe.

Und hast immer noch nicht begriffen ?

ich habe. du nicht. gar nichts.

Oder willst Du Dich hier nur wichtig machen ? Lass es.

du kennst nicht mal die einfachsten grundbegriffe und machst hier einen auf dicke hose? lächerlich. du weißt genau gar nichts. selbst deine stichworte sind völlig veraltet. aber mach nur weiter, ich lache gerne.

OT. Weiter
Hallo nodata,

du weißt genau gar nichts. selbst deine stichworte sind völlig
veraltet. aber mach nur weiter, ich lache gerne.

VIKTORs ersten Artikel mit Verweis auf Google und Wikipedia fand ich ja noch irgendwie konstruktiv. Mein Lachen begann, als „alle weiteren diesen bestätigten“ und endete mit den immer abstruseren Ansichten in einem physikalisches ROTFL.

Also: Danke und Weiter so!

Gruß
wilbert

Es macht genau was ihm vorgegeben wird -innerhalb des
„Prinzips“.

und das prinzip ist ausprobieren?

ja.

tja, und damit bist du raus. du hast keine ahnung, was in
einem computer passiert.

da kannst Du Dich aufblasen wie Du willst.
Daran ändern keine modernen integrierten Schaltkreise etwas welche
auf einem Chip plaziert sind noch irgendwelche Logikbausteine.
Bei jedem Zugriff auf irgendeine „Speicherzelle“, egal ob im
Arbeitsspeicher oder im Prozessor wird „probiert“ - frei oder „zu“.
Und jeder Programm-Cod ist genau auf diese Arbeitsweise des
digitalen Prozessors abgestimmt.Es ist unmöglich mit dem „Computer“
anders zu kommunizieren als eben nur über die ja/nein Abfrage.

ein prom ist ein ganzer haufen von logikschaltungen, die
(genau einmal) programmierbar sind.

Genau, es sind schon in der Hartware gespeicherte Programme.

sowas findest du in keinem modernen computer mehr.

Ich hatte schon erwähnt daß dies heute meist durch „Verdrahtungen“
(IC) abgelöst wurde, ob diese nun auf den Chip des Prozessors
integriert sind oder nicht.
Dies alles kippt aber nicht das „Prinzip“ der Arbeitsweise des
Computers.

der hauptprozessor taktet nichts, er wird getaktet.

Der Taktgeber gehört zum Prozessor, sonst geht nichts.

Den größten Bereich zur Bearbeitung nimmt der Arbeitsspeicher
ein der keine „Logik“ beinhaltet - wenn sie ihm nicht durch ein
Programm vorgegeben wird.

kompletter blödsinn. im arbeitsspeicher passiert genau das,
was der hintere teil des namens sagt: es wird gespeichert.
gearbeitet wird im prozessor, du spezialist. und damit es
schneller geht, hat dieser seinen eigenen, schnellen
arbeitsspeicher - den cache.

Was soll diese überflüssige Belehrung ?
Die Daten „zur Be arbeit ung“ liegen im Arbeits speicher und der
Cache ist auch nichts anderes. Er dient als Zwischenspeicher näher
am Prozessor zwecks schnellerem Zugriff. Bei kleineren Programmen
und weniger Daten kann der Cache vollkommen die Funktion des
größeren " Arbeits speichers" übernehmen.

Und hast immer noch nicht begriffen ?
Oder willst Du Dich hier nur wichtig machen ?

Alles (fast)richtig was Du sagst - aber dies kippt nicht meine
meine Prinzip -Aussage.An der hast Du völlig unnötig
herumgemäkelt und den Fragesteller nur irritiert.
Die komplexen vielfältigen Funktionen welche noch integriert sind
um das Grundprinzip der Arbeitsweise des Computers zu unterstützen
oder zu optimieren waren hier nicht Gegenstand meiner Antwort an den
Fragesteller - dies war offensichtlich

mach nur weiter, ich lache gerne.

Mach nur, hast ja schon einen Mitlacher gefunden.
Sollte hier zutreffen: „Am vielen Lachen erkennt man die Narren“ ?
Ob alle Deine traurige Vorstellung hier so lustig finden möchte ich
bezweifeln.

tja, und damit bist du raus. du hast keine ahnung, was in
einem computer passiert.

da kannst Du Dich aufblasen wie Du willst.

vewrglichen mit dir erbse wirkt natürlich alles aufgeblasen. zumal du ins innere auch hier keinen einblick hast.

Daran ändern keine modernen integrierten Schaltkreise etwas
welche
auf einem Chip plaziert sind noch irgendwelche Logikbausteine.

nein, die befinden sich ja auch im computer und nicht in mir.
bei dir offenbar nicht mal in der geistigen nähe.

Bei jedem Zugriff auf irgendeine „Speicherzelle“, egal ob im
Arbeitsspeicher oder im Prozessor wird „probiert“ - frei oder
„zu“.

blödsinn.
du hast nicht mal den schimmer einer ahnung, was da abläuft. informier dich erst mal bevor du in einem expertenforum luft bewegst:
http://de.wikipedia.org/wiki/Logikgatter
und als praktisches beispiel speziell für dich:
http://www.ti.com/lit/ds/symlink/sn74ls00.pdf
erklär uns doch mal, wie ein nor-gatter aus transistoren etwas ‚probiert‘, du spezialist.

Und jeder Programm-Cod ist genau auf diese Arbeitsweise des
digitalen Prozessors abgestimmt.

ah so. die befehle lauten also gar nicht ‚lade register mit speicherinhalt aus zelle xyz und addiere dazu inhalt der speicherzelle xyv‘, die lauten deiner meinung nach ‚probier mal was aus dem speicher zu holen und vielleicht was anderes dazu zu addieren‘.
welche programmiersprache verwendest du?

Es ist unmöglich mit dem
„Computer“
anders zu kommunizieren als eben nur über die ja/nein Abfrage.

ach? befehle nimmt er nicht an, nur abfragen? und was genau ist daran ‚probieren‘?

ein prom ist ein ganzer haufen von logikschaltungen, die
(genau einmal) programmierbar sind.

Genau, es sind schon in der Hartware gespeicherte Programme.

unsinn.
dir ist nicht mal der unterschied zwischen programm und daten bekannt. ein prom KANN programm sein. es kann auch was ganz anderes sein. aber deine welt ist halt klein…

sowas findest du in keinem modernen computer mehr.

Ich hatte schon erwähnt daß dies heute meist durch
„Verdrahtungen“
(IC) abgelöst wurde, ob diese nun auf den Chip des Prozessors
integriert sind oder nicht.

genau. ‚verdrahtungen‘. und die probieren dann irgendwas aus. lol. ich sehe grad elektronen vor mir, die suchend in irgendwelchen drähten herumirren auf der suche nach löchern und stäben.

Dies alles kippt aber nicht das „Prinzip“ der Arbeitsweise des
Computers.

nein, natürlich nicht. es hat halt nur nichts damit zu tun.

der hauptprozessor taktet nichts, er wird getaktet.

Der Taktgeber gehört zum Prozessor, sonst geht nichts.

genau. aber es ist eben nicht der prozessor, der die anderen baugruppen taktet.
glückwunsch, du hast mal was richtiges gesagt.

Den größten Bereich zur Bearbeitung nimmt der Arbeitsspeicher
ein der keine „Logik“ beinhaltet - wenn sie ihm nicht durch ein
Programm vorgegeben wird.

kompletter blödsinn. im arbeitsspeicher passiert genau das,
was der hintere teil des namens sagt: es wird gespeichert.
gearbeitet wird im prozessor, du spezialist. und damit es
schneller geht, hat dieser seinen eigenen, schnellen
arbeitsspeicher - den cache.

Was soll diese überflüssige Belehrung ?

damit auch du irgendwann mal was lernst.
allerdings frage ich mnich, ob du dazu überhaupt in der lage bist. bislang sieht es irgendwie nach lernresistenz aus.

Die Daten „zur Be arbeit ung“ liegen im Arbeits speicher und der
Cache ist auch nichts anderes. Er dient als Zwischenspeicher
näher
am Prozessor zwecks schnellerem Zugriff. Bei kleineren
Programmen
und weniger Daten kann der Cache vollkommen die Funktion des
größeren " Arbeits speichers" übernehmen.

bingo. wikipedia studiert?

ich verstehe allerdings nicht, warum du mir das erzählst, nachdem ich es dir grad vorher erklärt habe. und du mir vorgeworfen hast, das sei überflüssig. kann es sein, dass genau das deine art von logik ist? herumprobieren, irgendwann kommt sicher auch mal was passendes? oder ist das nur einfach ein scheinbeweis dafür, dass du irgendwas gelesen hast? auch wenn es gar nicht zum thema ‚prinzip eines computers‘ passt?

Und hast immer noch nicht begriffen ?
Oder willst Du Dich hier nur wichtig machen ?

Alles (fast)richtig was Du sagst

streich das falsch. es ist falsch.

  • aber dies kippt nicht meine
    meine Prinzip -Aussage.An der hast Du völlig unnötig
    herumgemäkelt und den Fragesteller nur irritiert.

das prinzip ist aber immer noch falsch. irritiert durch erzählen von märchen hat hier genau einer: du! und es gibt hier einen lernresistenten, das bist auch du. und es gibt einen, sder noch genau gar kein argument für seine behauptung gebracht hat. schon wieder du.

du musst hier irgendwie wichtig sein, scheint mir.

Die komplexen vielfältigen Funktionen welche noch integriert
sind um das Grundprinzip der Arbeitsweise des Computers zu
unterstützen
oder zu optimieren waren hier nicht Gegenstand meiner Antwort
an den Fragesteller - dies war offensichtlich

ja sicher war das offensichtlich nicht das thema. du hast ja auch gar keine ahnung, was da passiert und was es da so alles gibt. auch das ist offensichtlich.
ich habe deshalb auch keine ahnung, warum du damit angefangen hast. aber vielleicht kommt das ja noch. vielleicht landest du mit deiner stäbchen-und-loch-logik ja irgendwann bei einem argument.

ich fürchte aber, das kann dauern.

mach nur weiter, ich lache gerne.

Mach nur, hast ja schon einen Mitlacher gefunden.
Sollte hier zutreffen: „Am vielen Lachen erkennt man die
Narren“ ?

kann schon sein. manchmal erkennt man aber auch DEN narren. leider muss ich dir mitteilen: hier haben wir ihn gefunden. dich.

es ist schwer, über jemanden witze zu machen, der den witz gar nicht versteht. ich habe normalerweise auch hemmungen, ÜBER ihn zu lachen. hier allerdings bin ich da völlig frei, denn mit deiner beispiellosen arroganz angesichts völligen fehlens eines fundaments hast du das selbst herausgefordert. ich bin gespannt, wie du aus dem tiefen loch wieder rauskommen willst. da fehlt ja jeglicher ansatz einer leiter.

Ob alle Deine traurige Vorstellung hier so lustig finden
möchte ich bezweifeln.

das ist offensichtlich und da hast du auch mein vollstes verständnis.

Hallo Ihr beiden,

kommt doch mal wieder runter von den Bäumen! Das ist doch nicht zielführend hier. Der Fragesteller hat eine sehr elementare Frage gestellt, die wirklich nicht viel Ahnung verrät. Viktor hat versucht, sich mit seiner Wortwahl anzupassen.

Nun ist „probieren“ vielleicht nicht der richtige Begriff gewesen, weil missverständlich. Ich glaube nicht, dass VIKTOR damit „wildes Rumprobieren“ gemeint hat, wie Du, nodata, das verstanden hast. Im Grunde seid Ihr doch nicht so weit voneinander weg (genau genommen habt Ihr Euch sogar zu sehr ineinander verbissen, um das zu sehen).

Was macht denn ein Logikbaustein? Im Prinzip vergleicht er doch nur zwei Bytes (oder größere Wörter). Was steht im ersten Bit von Byte 1? Was steht im erste Bit von Byte 2? Wie werden die beiden Bits miteinander verknüpft? Wobei der Logikbaustein letzteres nicht „nachsehen“ muss, weil er schon entsprechend verdrahtet ist. Ich glaube, das war es was VIKTOR mit „probieren“ meinte, nur eben auf einer sehr prinzipiellen Ebene.

Der Rest war Streit um Wörter und persönliche Animosität. Also: Friede!

Grüße, Thomas

Hallo Thomas,

Wobei der Logikbaustein letzteres nicht „nachsehen“ muss, weil er
schon entsprechend verdrahtet ist.

dies wurde von mir auch so dargestellt - aber dies interessiert den einfach nicht.

Ich glaube, das war es was VIKTOR mit „probieren“ meinte, nur eben
auf einer sehr prinzipiellen Ebene.

Was wohl auch fast jeder hier so verstanden hat.

Der Rest war Streit um Wörter und persönliche Animosität.
Also: Friede!

Gut gemeinter Versuch aber wohl bei der vom UP präsentierten
„Persönlichkeitsstruktur“ kaum machbar.
Dies zeigt auch sein Beitrag von 20.11-er war erst 2 Tage Mitglied-
wo er zugegebener Maßen ein Fehlverhalten eines Fragestellers im
Brett NW.allgemein „kritisierte“ mit den abschließenden Worten:
höflich wie ne offene hose! verpfeif dich, du troll!
(ob er dabei auch sich meinte ?)
wobei er sogar meine Position stützte wollte.
Da brauchen wir nicht weiter darüber zu diskutieren ob hier bei uns
nur Animositäten auszuräumen sind oder um Wörter gestritten wird.
Ich jedenfalls kann auf solche „Unterstützung“ - welche auch noch
mit einem Sternchen belohnt wurde - gerne verzichten,da waren andere
welche H.Gintermann auch deutlich, aber qualifiziert gegen hielten.
Dir danke ich jedenfalls auch für Deine qualifizierte Einlassung
hier zu diesem Disput.
Gruß VIKTOR