Willkommen auf meinem Weblog / Welcome to my blog

Es startet die Entdeckungstour auf verschlungenen Pfaden zu unentdeckten physikalischen Forschungen und Themen, die sich ergebnislos im Gespräch befanden und deren Rätsel durch dieses Blog kaum gelöst, aber zumindest gemeinsam etwas bedacht und besprochen werden können. Was sonst noch als bedeutsam im Leben oder der Umgebung wahrgenommen wird, landet hier auch. Der Leser kann selber problemlos kommentieren - was als Feedback und Ergänzung der Artikel wünschenswert wäre.
______________________________________________
A short translation of the article in English You find at the end of the blog.

Samstag, 18. Dezember 2010

Weihnachten2010

Dienstag, 14. Dezember 2010

Welche Physik ist die "reguläre" Physik?

In den Foren wird heftig über Bezugsysteme gestritten, wenn es um Geschwindigkeiten geht - dies läuft dann allerdings noch ziemlich harmonisch, wenn man es mit dem "Gesprächsverlauf" bei der Frage vergleicht, welche Physik die richtige sei. Da Sprache alles hergibt, wird man dann hören, dass es sich bei der Physik, die an den Universitäten gelehrt wird, um die korrekte Physik handeln würde. Dies wird dann auch durch die Begriffe "Standardphysik" und "Standardmodell" unterstützt. Wer allerding in irgendwelchen Internet-Plattformen zusammen mit anderen Autoren Artikel schreibt, wird zu den meisten physikalischen Themen heftige Debatten erleben - d.h. mit dem Standard kann es nicht so weit her sein. Bewährt hat sich dann eigentlich der Gedanke, dass auch die Physik als Gesamtheit eine Modellvorstellung ist und somit die Realität der Natur mit Hilfe der Formulierung von Naturgesetzen auf die Menschenwelt abgebildet wird. Diese Sichtweise vereinfacht die Handhabung des Themas wesentlich. Denn der Begriff des "Modells" beinhaltet, dass eine Realität verändert dargestellt wird, damit sie mit Hilfe der Naturgesetze besser gehandhabt werden kann. Zu verschiedenen Zeiten an unterschiedlichen Orten und in unterschiedlichen Gruppen und Institutionen wird man unterschiedliche Akzente setzen und dementsprechend zu verschiedenartigen Ergebnissen kommen. Die Prämissen bestimmen die Beschaffenheit des physikalischen Outputs. Man wird zur Beurteilung von "Physiken" analysieren müssen, welche Interessen - eventuell auch welche eigennützigen Interessen verfolgt wurden. Idealisten werden sich eventuell auch auf den Wahrheitsstandpunkt stellen und als Forschungsziel die Ermittlung dessen angeben, was physikalisch wahr ist und somit der gesamten Menschheit (und sogar Flora und Fauna) nützt. Wer an dieser Stelle den Einspruch macht, dass die Anwendungen kaum funktionieren würden, wenn es unterschiedliche "Physiken" geben würde, sollte bedenken, dass Anwendungen physikalisch nur noch verwaltet werden und es allerdings dann wieder sehr heftig wird, wenn Funktionsweisen erklärt werden sollen oder ein neu ins Blickfeld gekommenes Phänomen erforscht werden soll.

Freitag, 15. Oktober 2010

Reelle Zahlen

Bei den Reellen Zahlen IR handelt es sich um eine Vereinigungsmenge der Natürlichen Zahlen IN {0; 1; 2; ... n}, der Ganzen Zahlen Z {... -2; -1; 0; 1; 2; ...}, der Rationalen Zahlen Q {... ; -0,347; ... ; 0; ... ; 5; ...} und der Irrationalen Zahlen {... sqrt(2) ...}. Somit ist in den Reellen Zahlen IR alles enthalten {... -srt(2) ... 0 ... pi ... sqrt(73) ...}. Diese Reellen Zahlen liegen auf dem Zahlenstrahl dicht, d.h. es befinden sich zwischen zwei Reellen Zahlen keine Abstände. Da in diesem Blog kein Wissen wie in einem Lexikon vermittelt werden soll, sondern es um solche Dinge geht, die sich in der Diskussion befinden, sei an dieser Stelle auf einige Konsequenzen der Konstruktion einer Zahlenmenge wie die der Reellen Zahlen hingewiesen:

Die Mächtigkeit der Menge der Reellen Zahlen soll unendlich sein - diese Aussage ist eine Behauptung, man kann nicht die Aussage treffen, dass sich Zahlenfolgen unendlich weit fortsetzen lassen.

Zwischen je zwei Reellen Zahlen sollen wiederum unendlich viele Zahlen liegen, d.h. die Mächtigkeit von IR würde dann irgendetwas wie unendlich^unendlich ergeben - was das auch immer sein soll.

Wenn die nächste Zahl nicht benannt oder sonstwie bestimmt werden kann, dann wäre es auch fraglich, ob zwei "nebeneinander liegende" Zahlen aus IR "wohlunterschieden" gemäß der Mengendefinition wären, d.h. dann würde es sich um keine Menge der Reellen Zahlen handeln, weil die einzelnen Elemente nicht unterscheidbar sind. Dies entspräche der Aussage, dass eine mit Wasserfarben per Mischung hergestellte Farbskala eine Menge mit wohlunterschiedenen Farbtönen als Elemente wäre - was nicht korrekt wäre, da die Unterscheidbarkeit fehlt.

Die Zahl 0 kann sich nicht eindeutig als eine einzige Zahl darstellen lassen - zumindest wäre die Aussage erforderlich nach wieviel Dezimalstellen man sagen wolle, eine Zahl sei als null anzusehen.

Insgesamt ergibt sich nach diesem Diskussionsansatz die Erkenntnis, dass eine solche Zahlenmenge als Modell einer Realität angesehen werden sollte - und es somit selbstverständlich wäre, dass eine solche Konstruktion einer Zahlenmenge Idealisierungen enthalten würde, d.h. wenn es um den Grenzbereich mit unendlich geht, dann sollte von einer übergenauen Präzision des Denkens abgesehen werden - so wie ein Gemälde eine Person idealisiert aber nicht in allen Einzelheiten wirklich abbildet.

Sonntag, 5. September 2010

Differenzialgleichung


Unter einer Differentialgleichung versteht man eine Gleichung, die eine Funktion und deren Ableitungen enthält. Als Beispiel sei die Gleichung y' − y = 0 genannt. Nach Umformung hätte man y' = y und würde als Lösung der DGL eine Funktion vermuten, deren Ableitung mit der Funktion übereinstimmt, z.B. y=ex, d.h. diese Funktion wäre eine Lösung. Wobei hier auch ein Faktor vor der Exponentialfunktion stehen könnte, d.h. y=c ⋅ ex.
Wenn die Funktion, welche die Differentialgleichung löst, nur von einer Variablen abhängt, so handelt es sich um eine Gewöhnliche Differentialgleichung - bei mehreren Variablen und Ableitung nach einer Variablen heißt es Partielle Differentialgleichung.
Weitere Begriffe beziehen sich auf die Anzahl der Ableitungen, z.B. handelte es sich bei dem obigen Beispiel um eine DGL 1. Ordnung, da keine höhere als die erste Ableitung vorhanden ist.
Als Schreibweise ist es üblich, die als Lösung gesuchte Funktion mit y zu bezeichnen und einen Term mit der Variablen x dann mit ƒ(x).
Beispiel: y' = ƒ(x).


Gewöhnliche Differenzialgleichungen

Einfache Beispiele

  1. Die Gleichung y' = y ist eine DGL I. Ordnung, da nur die erste Ableitung vorhanden ist. Weil abgeleitete und nicht abgeleitete Funktion gleich sind, kommt nur eine Lösungsfunktion in Frage, die sich bei der Ableitung nicht ändert. Dies wäre aus Erfahrung die Exponentialfunktion y=ex. Da sich ein konstanter Faktor vor dem Term mit der Variablen auch nicht ändern würde, käme hier auch die Lösung: y=c*ex in Frage. 
  2. Die Gleichung y' = ƒ(x) ist eine DGL I. Ordnung. Man kann y' = dy/dx = ƒ(x)  schreiben und somit dann dy = ƒ(x)*dx schreiben und zur Bestimmung der Lösungsfunktion y  integrieren: y=∫ƒ(x)*dx=F(x). Nachfolgend eine Beispielsrechnung: Die Gleichung y'=2*x ist gegeben. Die gesuchte Lösungsfunktion y kann über das Integral bestimmt werden: y'=2*x und somit y=2x*dx=2/3*. Somit wäre die gesuchte Funktion y=2/3*x³+c. Wobei die Konstante c durch die Bildung der Stammfunktion beim Integrieren entstanden ist. Wenn ein Punkt vorgegeben wird, kann auch die Konstante c bestimmt werden. In diesem Beispiel y=2/3⋅x³+c könnten bei dem Punkt x = 3 und y = 30 die Werte in die Lösungsfunktion eingesetzt werden und man hätte: 30=2/3*3³+c, 30=18+c, c=12 - und somit die Lösungsfunktion:  y=2/3*x³+12.

 DGL 1. Ordnung der Form: y'=ƒ(x)*g(y) 

Wenn eine DGL mit den Faktoren f(x)*g(y) geschrieben werden kann, dann ist es möglich, die Lösungsfunktion mit Hilfe von zwei gleichgesetzten Integralen der Form 1/g(y)*dy=(f(x)*dx) zu bestimmen. Beispielsrechnung: Gegeben sei die Gleichung y'=2/x*y, welche in die Faktoren f(x)=2/x und g(y)=y aufgeteilt werden kann. Bildet man die Integrale so ergibt sich: 2/x*dx=2*1/x*dx=2*ln(x) und 1/g(y)*dy=ln(y). Gleichgesetzt erhält man also ln(y)=2*ln(x) und umgeformt per ln-Rechnung: ln(y)=ln(x²), dann auf beiden Seiten mit e als Basis geschrieben: eln(y)=eln(x²) und nach Definition ln-Rechnung ergibt sich dann die Lösungsfunktion y=x². Zur Probe in die Ausgangsgleichung y'=2/x*y eingesetzt: y=x², y'=2x dann eingesetzt: 2x=2/x*x²=2x, d.h. die Lösungsfunktion y=x² ist richtig.

Homogene lineare DGL 1. Ordnung der Form: y'+f(x)*y=0

Die DGL der Form y'+f(x)*y=0 hat eine Allgemeine Lösung: y(x)=c*e-F(x) mit der Stammfunktion F(x)=f(x)*dx. Beispielsrechnung: Gegeben sei eine DGL y'-y/x=0, mit f(x)=-1/x. Somit ergibt sich die
Stammfunktion F(x)=-1/x*dx=-ln(x). Man könnte jetzt also mit der Allgemeinen Lösung: y(x)=c*e-F(x) schreiben: y(x)=c*eln x=c*x. Die Lösungsfunktion wäre so die Funktionenschar: y(x)=c*x. Wäre ein Punkt mit (3|6) gegeben, könnte man c berechnen: y(x)=c*x, 6=c*3, c=2 und somit die Lösungsfunktion: y=2*x. Zur Probe eingesetzt in die Ausgangsgleichung y'-y/x=0, könnte man schreiben: y=2*x, dann y'=2 und somit die Gesamtgleichung mit eingestzten Termen: 2-2*x/x=0, d.h. die eingesetzte Lösungsfunktion war richtig.

Lösung per Substitution von DGL der Form: y'=f(ax+by+c)

Beispiele für f(ax+by+c) könnten sein: f(ax+by+c)=3*(ax+by+c) oder f(ax+by+c)=5*(ax+by+c)+7. Liegt eine Differentialgleichung dieses Typs vor, so wird der Term (ax+by+c) als eine Variable u zusammengefaßt: u=(ax+by+c), insofern wäre dann y'=f(u) und u'=du/dx=a+b*f(u). Diese Ableitung u'=a+b*f(u) läßt sich als Produkt u'=1*(a+b*f(u)) schreiben. Nunmehr kann ein Lösungsansatz für - separierbare - DGL der Form: y'=f(x)*g(y), mit 1/g(y)dy=f(x)dx angewendet werden, d.h. es wird eine Gleichsetzung der entsprechenden Integrale vorgenommen: u'=1*(a+b*f(u)), dann 1/(a+b*f(u))*du=1*dx. Die Wiedereinsetzung der Terme für u führt dann auf eine Form, die nur noch y enthält und somit eine Lösungsfunktion der DGL darstellt.
Beispiel: Die Lösungsfunktion y der DGL y'=x+y soll bestimmt werden. Entsprechend der Form dieses Typs normiert wäre y'=f(ax+by+c)=(1*x+1*y+0)=x+y. Somit wäre y'=u und u'=du/dx=1+dy/dx=1+y'=1+u. Es kann nunmehr das Produkt geschrieben werden: u'=1*(1+u), so dass die Gleichsetzung der Integrale ausgeführt werden kann: 1/(1+u)*du=1*dx. Die Stammfunktion wird per Tabellenbuch ermittelt: 1/(1+u)*du=ln|u-(-1)|=ln|u+1| und 1*dx=x. Somit erhält man die Gleichung: ln(u+1)=x und kann diese als Exponentialfunktion schreiben: eln(u+1)=ex, somit per ln-Definition: u+1=ex. Rückeinsetzung für u ist u=x+y, d.h. u+1=ex dann eingesetzt: x+y+1=ex und umgestellt nach der Lösungsfunktion: y=ex-x-1. Diese Lösungsfunktion ergibt die Ableitung y'=ex-1. Zur Probe werden y und y' in die Ausgangsgleichung y'=x+y eingesetzt: ex-1=x+ex-x-1, d.h. 0=0, die DGL mit der eingesetzten Lösungsfunktion und ihrer Ableitung ergibt eine wahre Aussage.

Inhomogene lineare DGL 1. Ordnung der Form: y'+f(x)*y=g(x)

y(x)=a(x)*e-F(x) mit a(x)=g(x)*eF(x)*dx und der Stammfunktion: F(x)=f(x)*dx
Beispiel: y'+y=2, d.h. f(x)=1 und g(x)=2 Also: F(x)=1*dx=x und dann: a(x)=2*ex*dx=2ex*dx=2*ex und dann y(x)=2*ex*e-x=2*ex-x=2 Somit ist die Lösungsfunktion der DGL y(x)=2 Probe: Eingesetzt in y'+y=2 ergibt: 0+2=2, 2=2, d.h. richtig.

Inhomogene lineare DGL 1. Ordnung mit Konstante der Form: y'+a0*y=g(x)

Wenn der Faktor a0 konstant ist, erhält man die Lösungsfunktion als y(x)=y_h+y_p, wobei "h" für "Homogene DGL" und "p" für "Partikuläre Lösungsfunktion" steht. Man findet für y_h einen Ansatz über: y_h(x)=c*e-a0*x und einen Ansatz für y_p aus der nachfolgend dargestellten Liste:
g(x)=y_p(x)=
b_0+b_1*x+b_2*x²+ ...+b_n*x^nc_0+c_1*x+c_2*x²+...+c_n*x^n
b*ek*xk ungleich -a0c*ek*x
b*ek*xk=-a0c*x*ek*x
b_1*sin(x)+b_2*cos(x)c_1*sin(x)+c_2*cos(x)

Beispiele:
y'+y=2*ex Der Vergleich mit der allgemeinen Form: y'+a0*y=g(x) zeigt, dass a0=1 und g(x)=2*ex. Für allgemein: y_h=c*e-a0*x erhält man im Beispiel: y_h=c*e-x. Zur Bestimmung der Ansatzfunktion y_p wäre nach Tabelle zu entscheiden, was vorliegt: Die Konstante a0=1 und g(x)=2*ex, somit würde die Zeile mit g(x)=b*ek*x vorliegen, d.h. g(x)=2*ex, somit ist k=1 und damit ungleich -a0=-1. Man würde für y_p den Ansatz: y_p=c*ek*x erhalten, d.h. auf die Aufgabe bezogen die Partikuläre Lösungsfunktion: y_p=c*ex. Also erhält man als Lösungsfunktion: y(x)=y_h+y_p; y(x)=c*e-x+c*ex. Dann wäre die Ableitung: y'(x)=-c*e-x+c*ex Zur Probe eingesetzt in die Ausgangsgleichung: y'+y=2*ex
ergibt: -c*e-x+c*ex+c*e-x+c*ex=c*ex+c*ex=2*c*ex für c=1 also korrekt. Abschließend hätte man mit c=1 dann die Lösungsfunktion: y(x)=e-x+ex, mit der Ableitung: y'(x)=-e-x+ex, so dass nunmehr wiederum die Probe durch Einsetzen in die Ausgangsgleichung gemacht werden kann: y'+y=2*ex; -e-x+ex+e-x+ex=2*ex, d.h. ist korrekt.
y'+3y=6x+11 Für y_h erhält man: y_h=c*e-3x. Zur Bestimmung von y_p folgt aus g(x)=6x+11, dass aus der obigen Tabelle die erste Zeile Gültigkeit hat und somit y_p=c_0+c_1*x sein müßte. Aus diesem Grunde kann die Lösungsfunktion mit y(x)=y_h+y_p mit y(x)=c*e-3x+c_0+c_1*x geschrieben werden, so dass die Ableitung: y'(x)=-3c*e-3x+c1 ist. Zur Berechnung der Koeffizienten c, c_0, und c_1 wird in die Ausgangsgleichung: y'+3y=6x+11
eingesetzt: -3c*e-3x+c1+3*(c*e-3x+c_0+c_1*x)=6x+11,
somit: -3c*e-3x+c1+3c*e-3x+3*c_0+3c_1*x=6x+11,
somit: c_1+3*c_0+3*c_1*x=6x+11.
Per Schlussfolgerung können die Koeffizienten c_0 und c_1 bestimmt werden: Da der x-Term "6x" ist und andererseits 3c_1x steht, wäre c_1=2, so dass 3c_1x=3*2*x=6x ist. Da der konstante Term "11" ist und andererseits c_1+3*c_0 steht, wobei c_1=2, gilt also: c_1+3*c_0=2+3*c_0=11, somit: c_0=3. Als Zwischenergebnis ergibt sich die Lösungsfunktion: y(x)=c*e-3x+3+2x mit Ableitung: y'(x)=-3c*e-3x+2. Setzt man dieses Zwischenergebnis der Lösungsfunktion in die Ausgangsgleichung y'+3y=6x+11 ein, so ergibt sich: -3c*e-3x+2+3*(c*e-3x+3+2x)=-3c*e-3x+2+3*c*e-3x+9+6x=2+9+6x=6x+11. Es zeigt sich, dass die Konstante c unerheblich ist, da sich die Terme mit c aufheben, so dass letzten Endes die Lösungsfunktion: y(x)=2x+3 lautet. Probe per Einsetzung in die Ausgangsfunktion y'+3y=6x+11: 2+3*(2x+3)=2+6x+9=6x+11, d.h. die Lösungsfunktion y(x)=2x+3 ist das richtige Ergebnis.

Inhomogene lineare DGL 2. Ordnung der Form: y"+ ay' + by=0

Die Lösungsfunktion bei a, b = const. ergibt sich aus Fallunterscheidung der Beziehung zwischen den Konstanten a und b:
Fallunterscheidung Weitere Rechnung Lösungsfunktion
a² - 4b > 0 r1, 2=-a/2 +/- √(a²/4 - b) y=c1 * er1 * x + c2 * e r2 * x
a² - 4b = 0 y=e-a/2 * x * (c1 + c2 * x)
a² - 4b < 0 k=√(b-a²/4)y=e-a/2 * x * (c1 * cos k * x + c2 * sin k * x)
a² - 4b < 0 k=√(b - a²/4), A=√(c1² + c2²), tan φ = c1/c2 y=e-a/2 * x * sin (k*x + φ)
Beispiel: Gesucht sei die Lösungsfunktion y der DGL: y" + 2*y' + y = 0. Zuerst ist eine Fallunterscheidung bezüglich der Konstanten a, b zu treffen. Die allgemeine Form lautet: y"+ ay' + by=0, somit handelt es sich bei der gegebenen DGL y" + 2*y' + y = 0 um die Konstanten: a=2 und b=1, d.h. die zweite Zeile der Tabelle mit a² - 4b = 0 enthält die allgemeine Lösungsfunktion: y=e-a/2 * x * (c1 + c2 * x). Es werden die Ableitungen der allgemeine Lösungsfunktion gebildet, um sie danach in die gegebene DGL einsetzen zu können, um c1 und c2 so zu bestimmen, dass die Gleichung - wie bei diesem Typ vorausgesetzt - gleich null wird. Mit der bekannten Konstanten a=2 ergibt sich:
y'= - c1 * e- x - c2 * e- x
und
y"= c1 * e- x + c2 * e- x
Zur Bestimmung von c1 und c2 werden y, y' und y" in die gegebene DGL y" + 2*y' + y = 0 eingesetzt:
c1 * e- x + c2 * e- x + 2 * (- c1 * e- x - c2 * e- x) + c1 * e- x + c2 * x * e- x =c2 * e- x - 2 * c2 * e- x + c2 * x * e- x. Für c2 = 0 wird die Bedingung erfüllt, dass die rechte Gleichungsseite null ergibt. Somit entsteht aus der allgemeinen Lösungfunktion der zweiten Tabellenzeile:
y=e-a/2 * x * (c1 + c2 * x) nunmehr mit eingesetzten a=1, c2=0 die Lösungsfunktion:
y= c1 * e- x. Da sich zuvor bei der Einsetzung die Konstante c1 herausgehoben hatte, wird der Einfachheit halber c1=1 gesetzt, so dass die endgültige Lösungsfunktion: y=e- x lautet.
Probe:
Einsetzung der Lösungsfunktion und ihrer Ableitungen in die gegebene Gleichung mit y=e- x, y'=- e- x, y"= e- x ergibt für y" + 2*y' + y = 0:
e- x + 2 * (- e- x) + e- x = 0
Somit ist

y=e- x

die Lösungsfunktion der gegebenen Differentialgleichung.


Richtungsfeld

Das Richtungsfeld einer DGL entsteht, indem bei einer größeren Anzahl von Punkten (x|y) des Koordinatensystems die Steigung eingetragen wird. Man stellt die DGL nach y' um und setzt für x und y auf der anderen Gleichungsseite die x,y-Werte des Punktes ein und berechnet - das Resultat ist die Steigung m, welche ein Tangenswert darstellt und per arctan in die Winkelangabe umgerechnet werden kann. Nimmt man als Beispiel die Differentialgleichung y' = y dann hätte jeder Punkt (x|y) die Steigung des y-Wertes. Am Punkt (1|3) wäre die Steigung m=3, d.h. arctan(3)=71,565°, somit wird die Steigung mit diesem Winkel markiert. Es gibt unterschiedliche Programme, die das Richtungsfeld einer Differentialgleichung automatisch erstellen. Durch das Ausfüllen eines Richtungsfeldes kann die Lösungsfunktion ungefähr geschätzt werden.

Freitag, 23. Juli 2010

Definition, Begriff, Urteil

Definition
Definition (lat. definitio von definire = begrenzen, bestimmen) heißt die vollständige und geordnete Darlegung des Inhalts eines Begriffs. Diese wird gewöhnlich in der Form eines Urteils durch Setzung des zu definierenden Begriffs als Subjekt des Urteils und durch Angabe des nächsten Gattungsbegriffs (genus proximum) und des Artunterschiedes (differentia specifica) als Prädikat des Urteils erreicht.

Allgemeines
Jede Definition in dieser Form enthält also:
  1. als Subjekt den zu definierenden Begriff (definitum)
  2. als Prädikat den in seine Merkmale nach Gattung und Artunterschied zerlegten Inhalt desselben (definiens)

Beispiel:
"Das Parallelogramm (definitum) ist ein Viereck (Gattung) mit parallelen Seitenpaaren (Artunterschied)."

Die Definitionen zerfallen:
  • in Nominal– und Realdefinitionen, je nachdem nur der Gebrauch eines Wortes festgelegt oder dem zu Erklärenden zugleich mit der Erklärung reale Gültigkeit zugeschrieben werden soll.
  • in essentiale und distinguierende, je nachdem man die primären oder abgeleiteten Merkmale angibt .
  • in existentiale oder genetische Definitionen, je nachdem sie ein Objekt als fertig oder als entstehend darstellen.

Bestandteile einer guten Definition:
  • ein kategorisches Urteil sein
  • den höheren Gattungsbegriff und den Artunterschied ohne jede Künstelei geben
  • die konstitutiven Merkmale enthalten
  • präzis, klar und adäquat sein
  • kein aus einem anderen schon gegebenen ableitbares Merkmal enthalten
  • Zirkel, Tautologien, Bilder und Einteilungen vermeiden
Falsche Definitionen
  • Psychologie ist Seelenlehre 
  • Das Gute ist die Sonne im Reiche der Ideen 
  • Ein Dreieck ist eine dreiseitige, dreiwinklige Figur 
  • Ein Parallelogramm ist ein Viereck mit parallelen und gleichen Seitenpaaren
Geschichte
Die Wichtigkeit und das Wesen der Definitionen hat zuerst Sokrates (469-399) erkannt. Die Form der Definition hat zuerst Aristoteles (384-322) durch Hinweis auf Gattung und Artbegriff bestimmt.

___________________________________________________________

Begriff
Unter einem Begriff' (mittelhochdeutsch begrif oder begrifunge) versteht man die Zusammenfassung einer Vielzahl von Erscheinungen (auch Gegenstände und abstrakte Vorstellungen) zu einer gedanklichen Einheit, welche durch ein Wort ausgedrückt wird. Der Bedeutungsgehalt eines solchen Wortes umfasst somit eine ganze Vorstellungswelt, die das menschliche Subjekt mit dem Begriff verbindet. Der '''Begriffsinhalt''' wird im günstigsten Falle durch eine einzige Definition festgelegt, die seine Eigenschaften beschreibt und ihn von anderen Begriffen abgrenzt, und wird durch ein Wort oder ein Symbol bezeichnet. Mit Hilfe einer solchen Definition kann geprüft werden, ob ein Gegenstand, auf welchen der Begriff' angewandt wird, auch dem Begriffsinhalt entspricht. Ein Begriff wird meist mit einer Lautfolge oder einer Zeichenkombination benannt und steht damit einer verbalen Verständigung zur Verfügung. Die Gesamtheit, der im Begriff vorhandenen Merkmale wird als Begriffsinhalt oder auch Intension bezeichnet. Die Gesamtheit der Gegenstände, die ein Begriff bezeichnet, heißt Begriffsumfang oder auch Extension des Begriffs. Je größer der Umfang des Begriffs ist, desto geringer ist sein Inhalt und umgekehrt.

Sonstiges
  • Allgemeinbegriff' und Individualbegriff': Ein Individualbegriff ist ein einzelner Gegenstand, zum Beispiel eine Person namens "Schuster". Während ein Handwerker, der Schuhe repariert, die mundartliche Berufsbezeichnung "Schuster" trägt, wobei man diese als "Allgemeinbegriff" bezeichnen würde.
  •  
  • Benennungen und Synonyme: Ein Begriff kann mehrere Benennungen tragen, sowohl durch Wörter in verschiedenen Sprachen als auch in einer Sprache (Synonyme). So würde man z.B. für den "Sprung" im Rahmen eines sportlichen Wettkampfes die gleiche Benennung benutzen, wie für einen Riß in einem Porzellanteller, somit handet es sich bei dieser Benennung um ein "Synonym".
  •  
  • Semantik: Bedeutsam ist in der Semantik der Unterschied zwischen den Signatum oder Signifikat, dem Bezeichneten, und dem Signans oder Signifikant, das etwas bezeichnet. Ersteres nennt man den Begriff, die Bedeutung oder den Sinn eines Ausdrucks, das zweite das Zeichen. Die Semantik selbst ist der Oberbegriff, beziehungsweise der Ausdruck für die innere und äußere Beziehung zwischen Bedeutung und Zeichen, mitunter auch die Bedeutung eines bestimmten Zeichens, oder ein System von Bedeutungen selbst.
  •  
  • Bedeutung: Der Begriff "Bedeutung" ist grundlegend in der Linguistik und Sprachphilosophie. Wichtig ist der Begriff auch in der Informatik, der Forschung zur Künstlichen Intelligenz und in den Kognitionswissenschaften. Es gibt verschiedene Ansätze zur Bestimmung des Begriffs „Bedeutung“. Unter Bedeutung versteht man meistens das Wissen über die übliche Verwendung eines Wortes oder Ausdrucks innerhalb einer Sprachgemeinschaft und eines jeweils gegebenen Kontextes.
  •  
  • Etymologie: Die Etymologie (von altgrch. étymos „wahrhaftig“, „wirklich“, „echt“) wird als Wissenschaftszweig der historischen Linguistik zugeordnet. Hier werden Herkunft und Geschichte der Wörter ergründet und damit auch, wie sich ihre Bedeutung und Form entwickelt haben.
 __________________________________________________________

Urteil 
Urteil, im logischen Sinne die Grundfunktion des Denkens, durch die zwei Vorstellungsobjekte (Subjekt und Prädikat) in bewußte Beziehung zueinander gesetzt werden. Die Sprachform des Urteils ist der (einfache) Satz, dessen Grundgliederung (in Subjekt, Prädikat und die beide verbindende Kopula) durch die Natur des Denkens bedingt ist. Indem in jedem U. Subjekt und Prädikat als voneinander verschieden, aber doch zugleich als zusammengehörig anerkannt werden, so bekundet sich darin gleichzeitig eine zerlegende und eine beziehende Tätigkeit des Denkens. In den einfachsten, den primären Urteilen, in denen eine als Ganzes gegebene Vorstellung oder Wahrnehmung in ihre Bestandteile zerlegt wird, tritt zunächst bloß die erstere hervor, und erst auf einer höhern Entwickelungsstufe bringt das Denken ursprünglich getrennte Vorstellungen oder Begriffe in Beziehung zueinander (sekundäres U.). Je nachdem im ersten Falle von einem Gegenstand (als dem Subjekt des Urteils) eine Eigenschaft oder ein Zustand (als Prädikat) unterschieden wird, ist das primäre U. ein beschreibendes (z. B. Der Himmel ist blau) oder ein erzählendes (Der Hund läuft). Das sekundäre U. spricht als Resultat der Vergleichung zweier Begriffe entweder die Identität beider aus (Identitätsurteil, z. B. Platin ist das schwerste der bekannten Metalle), oder es ordnet als Subsumtionsurteil den Subjektsbegriff dem Prädikatsbegriff unter, wobei die Unterordnung eine vollständige (allgemein-subsumieren des U., z. B. Alle Rehe sind Wiederkäuer) oder nur eine teilweise sein kann (partikuläres U., z. B. Einige Parallelogramme sind gleichseitige Figuren). Diesen Formen des in der scholastischen Logik sogen. kategorischen Urteils stehen zur Seite die disjunktiven Urteile, in denen der Umfang eines Begriffes in eine Mehrzahl von Unterarten eingeteilt wird (z. B. Die Himmelskörper sind entweder Fixsterne oder Planeten oder Kometen) und die Abhängigkeits- (hypothetischen) Urteile, die ein Abhängigkeitsverhältnis ausdrücken, wobei Subjekt und Prädikat häufig selbst durch eine Konjunktion verbundene besondere Urteile sind (z. B. Wenn Wasser erhitzt wird, kommt es zum Sieden). Handelt es sich in diesen Fällen um verschiedene Arten der Beziehung zwischen Subjekt und Prädikat, so zerfallen die Urteile mit Rücksicht auf die Beschaffenheit des erstern in Einzelurteile (Subjekt ein einzelner konkreter Gegenstand), Mehrheitsurteile (Subjekt eine Mehrzahl gleichartiger Gegenstände) und unbestimmte Urteile (Impersonalien). Alle Urteile können außerdem bejahend oder verneinend (Unterschiede der Qualität) und, je nachdem sie als tatsächlich richtig, als zweifelhaft oder als notwendige Ergebnisse eines Schlusses hingestellt werden, assertorisch, problematisch oder apodiktisch sein (Unterschiede der Modalität). Mit allen Urteilen lassen sich ferner gewisse Umformungen (Transformationen) vornehmen, deren wichtigste die Bildung äquipollenter, d. h. mit einem gegebenen sachlich identischer und nur in der Form verschiedener Urteile, die Konversion (s. d.) und Kontraposition (s. d.) sind. Je nachdem ein U. auf Erfahrung oder auf reine Anschauung (wie in der Geometrie), bez. reines Denken gegründet ist, wird es nach Kant ein U. a posteriori oder a priori genannt. Über den Unterschied analytischer und synthetischer Urteile

Freitag, 25. Juni 2010

Neuester Versuch macht klüger

In dem Anliegen, herauszufinden, ob die Signalgeschwindigkeit in der Leitung bei Hoch- oder Niederspannung unterschiedlich ist, waren Hoch- und Niederspannung mit Hilfe von Spannungsteilern aus Widerstandsketten abgegriffen und direkt auf die Eingänge von Operationsverstärkern übertragen worden. Es hat sich herausgestellt, dass im Einschaltaugenblick Spannungsspitzen entstehen, die auch dann den OP zerstören, wenn dessen hochohmiger Eingang durch einen niedrigen Parallel-Widerstand geschützt ist. Hab' jetzt keine Lust, diesen Sachverhalt tagelang zu untersuchen und ein Bauelement nach dem anderen kaputt zu machen. Also ist eine andere Schaltung erforderlich: Die Spannungsimpulse müssen gleichspannungsmäßig von den OP-Eingängen entkoppelt werden - und dass soll erstmal mit Hilfe von Trafospulen mit sehr niedriger Windungszahl und variabler Entfernung ausprobiert werden.


Somit hat sich die Schaltung vereinfacht und es werden jetzt auch keine Kondensatoren mehr als Stromlieferanten benötigt, da die OPs sehr empfindlich sind, d.h. es genügen sehr kurze Spannungsstöße, die aus einer Spannungsquelle entnommen werden und bei der die Spannung sofort wieder zusammenbricht. Allerdings sind nunmehr getrennte Spannungsquellen vorhanden, so dass ein vierpoliger Schalter benutzt werden muss. Die Trafos vor den OP-Eingängen können so mit ihren Spulenabständen variiert werden, dass gerade noch ein kleines Signal an den OP-Eingängen ankommt. Die Anzeigelogik besteht aus zwei Flipflops, die aus NAND-Gattern gebildet werden. Wie sich diese Schaltung dann bewährt, kann in zwei Wochen gesagt werden.


Samstag, 19. Juni 2010

Neuer Versuch macht klug

Das Forschungsanliegen war, zu prüfen, ob ein Hochspannungssignal schneller als ein Niederspannungssignal ist - diese Antwort wird für die neue Auflage eines Buches über die Übertragung von Elektromagnetischen Wellen benötigt.
Ein erster Versuchsaufbau war gemacht worden - Details siehe:
http://gerhardkemme.blogspot.com/2009/11/versuch-macht-klug.html

Hochspannung wird per Kondensatorenkette gespeichert und dann über ein 20 km langes Kabel auf eine Auswertelogik (Detektor) übertragen.


Allerdings war ein Drahtquerschnitt von 1 mm² nicht finanzierbar und ein wesentlich geringerer Drahtquerschnitt hatte für diese Schaltung mit sehr niedrigem Eingangwiderstand der Relais einen viel zu großen Widerstand, d.h. die Kontakte der Relais hätten sich nicht mal bewegt.

Neues Spiel, neues Glück: Es soll jetzt per Operationsverstärker und Flipflops gemacht werden, da ein solcher "OP" einen hohen Eingangswiderstand hat und mit niedrigen Eingangsströmen auskommt. Ein erster Schaltungsentwurf:

Sonntag, 13. Juni 2010

Ölförderung im Meer

Allgemeines
Erdöl ist der zentrale Energieträger des 20. Jahrhunderts. Erst vor etwa 150 Jahren begann die starke Nutzung dieser fossilen Energie.

Ölvorkommen
Derzeit kommt etwa ⅓ des weltweit geförderten Erdöls aus Offshore-Vorkommen, und Experten schätzen, dass etwa 25 % aller Reserven unter den Meeren liegen. Bekannte Beispiele sind die Ölfelder in der Nordsee, im Golf von Mexiko, in Aserbaidschan und vor der Küste Westafrikas. Und im Sommer 2008 sorgten weitere Offshore-Vorkommen für Schlagzeilen: So entdeckte der brasilianische Ölkonzern Petrobras gleich zwei große neue Lagerstättenn - allein das Tupi-Feld im Atlantik, 250 km vor der Küste des Bundesstaats São Paulo gelegen und im November 2007 gefunden, soll Vorkommen von 5 bis 8 Milliarden Barrel - etwa 1000 Mrd. L – bergen. Und im April 2008 ging die Nachricht vom Carioca-Ölfeld um die Welt, das 270 km südlich von Rio de Janeiro liegt und ähnlich groß wie Tupi sein soll. Nach Aussagen von Experten liegen die attraktivsten Ölfelder der Zukunft im Meer: vor Brasilien, Angola und Nigeria, mit einigen Abstrichen auch im Golf von Mexiko, und auch Saudi-Arabien hat noch Ölreserven im Meer. Alle diese Felder sind jedoch aufwändig und teuer in der Erschließung. Zum Beispiel das neu entdeckte brasilianische Tupi-Feld: Hier liegt das Erdöl in einer Tiefe von 7 000 m und wird von einer Salzschicht von 2 000 m Dicke bedeckt. Es wird darum noch einige Jahre dauern, bis das Tupi-Öl auf den Weltmarkt kommt. In der Zwischenzeit sinkt allerdings die Ausbeute bereits erschlossener Offshore-Felder: So haben die Lagerstätten in der Nordsee bereits im Jahr 2001 ihr Maximum erreicht, und auch einige Felder im Kaspischen Meer stehen kurz davor. Bei anderen Vorkommen - beispielsweise im Golf von Mexiko oder vor Afrika - steigt die Fördermenge derzeit hingegen noch leicht an. Im Schnitt liegt die Lebensdauer der Lagerstätten bei zehn bis 20 Jahren, einige Felder erreichen auch 30 Jahre. Wegen der intensiven Ausbeutung werden Offshore-Felder schneller erschöpft sein als die Ölfelder an Land. Um das Maximum aus den Lagerstätten herauszuholen, setzen die Ölfirmen immer raffiniertere Technologien ein - denn durch den natürlichen Druck in den Vorkommen lassen sich nur zwischen 10 und 30 % des Öl gewinnen. Bei den Sekundärverfahren wird beispielsweise Wasser in die Lagerstätten gepresst, um dort den Druck aufrecht zu erhalten. So steigt der Entölungsgrad auf bis zu 60 %. Er kann auch durch das Dampffluten erhöht werden – dabei wird überhitzter Wasserdampf mit einer Temperatur von etwa 340 °C unter hohem Druck in das Vorkommen injiziert. Auch Förderanlagen am Meeresboden - installiert und gewartet von Robotern – werden zunehmend wichtiger: Sie können beispielsweise schon an der Quelle unerwünschte Bestandteile wie Wasser oder Sand vom Erdöl und Erdgas abtrennen und somit die Produktion effizienter machen.

Suche nach neuen Ölvorkommen
Die meisten Lagerstätten sind tief in der Erde verborgen – zwischen 500 und 3 000 m – und müssen mit geologischen Untersuchungen geprüft und mit auf­wändigen Bohrungen erschlossen werden, wobei ihre Erschließung Jahre oder Jahrzehnte dauert. An der Suche nach Erdöl sind Wissenschaftler verschiedener Disziplinen vereinigt, darunter Geologen, Geophysiker und Geochemiker, die nach speziellen geologischen Strukturen Ausschau halten: Das Öl lagert oft unter hohem Druck und gemeinsam mit Salzwasser und Erdgas in einer Gesteinsschicht, die sowohl durchlässig als auch speicherfähig sein muss. Nach oben hin muss das Vorkommen durch eine undurchlässige Schicht, z.B. aus Ton oder Steinsalz, abgedichtet sein. Nach genau solchen „Fallen“ suchen die Erdölgesellschaften, indem sie die verschiedenen Gesteinsschichten prüfen: Schiffe mit Geophonen, speziellen Mikrophonen, fahren zu der Stelle, wo Öl vermutet wird. Mit Luftkanonen werden Schallwellen erzeugt, die in den Meeresboden eindringen und dort an den Grenzen unterschiedlicher Gesteinsschichten reflektiert werden. Aus diesen reflektierten Wellen können die Wissenschaftler die Schichtung des Meeresuntergrundes bestimmen und feststellen, ob dort speicherfähige Schichten vorhanden sind, die Platz für Öl oder Gas bieten. Sind die Ergebnisse viel versprechend, folgen erste Probebohrungen. Sie verraten den Wissenschaftlern, ob überhaupt Gas und Öl vorhanden und wie mächtig die Lagerstätte ist.

Förderung des Erdöls
Sind auch diese Ergebnisse der Erdölsuche positiv, kann die Förderung starten. Ölfelder unter dem Meeresspiegel werden mit Hilfe so genannter Offshorebohrungen mit schwimmenden oder am Meeresboden fest stehenden Bohrinseln genutzt: Für flaches Wasser bis etwa 100 m Tiefe setzen die Ölgesellschaften Bohrinseln ein: Hubplattformen haben Beine, die auf den Meeresboden abgesenkt werden. Halbtaucher sind hingegen schwimmende Plattformen, die am Boden verankert werden oder ihre Position mit Hilfsmotoren stabilisieren, mit ihnen kann man bis maximal 1000 m Tiefe arbeiten. Liegen die Ölvorkommen noch weiter unter der Meeresoberfläche, kommen Bohrschiffe zum Einsatz, die ebenfalls von Hilfsmotoren auf Position gehalten werden, wobei diese Hilfsmotoren, sogenannte Thruster, auch gegen das Drehmoment des Bohrers arbeiten müssen, damit das Schiff sich nicht um seine Achse dreht, da sonst das Bohrgestänge brechen kann.

Bohrung
Jede Bohrung erfordert einen Bohrturm. Dieser stellt eine Vorrichtung zum Aufhängen und Drehen des Gestängerohres, an dessen Ende der Bohrmeißel angebracht ist, dar. Es handelt es sich um einen Gittermast, der über der Bohrstelle aufgebaut wird. Er trägt eine Zugvorrichtung, mit dem man das Bohrgestänge und den Bohrer senken und heben kann. Da solche Bohrungen kilometerweit in die Tiefe führen, benötigt man eine ganze Reihe aneinandergesetzter Bohrstangen. Jede Bohrstange ist ca. 10m lang. Am Ende befindet sich der Bohrmeißel, der durch stoßende und drehende Bewegungen in die Tiefe eindringt. Zusätzliche Rohrlängen werden an den Strang angefügt, je weiter der Meißel in die Erdkruste eindringt. Die Kraft zum Schneiden der Erde liefert im Wesentlichen das Eigengewicht der Gestängerohre. Damit sich das Schneidematerial leichter entfernen lässt, werden ständig Bohrspülmittel nach unten durch das Gestängerohr, aus den Düsen des Bohrmeißels gesprüht, dann über den Raum zwischen Rohr und Bohrung an die Oberfläche geleitet

Donnerstag, 13. Mai 2010

Synchrotron - Detektoren



Wenn sich irgendwo eine neue Technologie etabliert, dann wäre es Anspruch, dass solche Technik zumindest in ihrem Grundprinzip verstanden wird. Die Erfahrung zeigt, dass es hier eine gigantische Phasenverschiebung des Verständnisses zwischen den real laufenden Experimenten in Teilchenbeschleunigern wie dem LHC von CERN bei Genf und dem Denken von ansonsten durchaus gebildeten Menschen gibt. Wenn noch begriffen wird, dass in einem Ringbeschleuniger oder Synchrotron Teilchenpakete kreisförmig mit hoher Geschwindigkeit umlaufen und zur Kollision gebracht werden, dann hört es mit den Erklärungen schnell auf, wenn nach der Auswertung solcher Kollisionen mit Hilfe von Detektoren gefragt wird. In diesem Sinne sei die Hoffnung ausgesprochen, dass etwas mehr Kenntnis auch in die Diskussionen des Internets einfließt, wenn die Grundlagen besser verstanden werden. Wobei diese Beschleuniger-Technologie ein weites Feld ist, das nicht eben mal auf die schnelle komplett kapiert werden kann - aber step by step wird es vielleicht doch zur Normalität gehören, dass man weiß, was da unter dem Erdboden kreist und passiert und per Detektor ausgewertet wird.
Siehe auch Blogeintrag:
http://gerhardkemme.blogspot.com/2010/05/synchrotron.html
Einführung
Bei früheren Teilchenexperimenten genügte meist ein einzelner Detektor, um Messergebnisse wie Flugbahn, d.h. Ort, oder elektrische Ladung zu erhalten. So benutzte Ernest Rutherford bei seinem berühmten Streuexperiment einen einfachen Zinksulfid-Schirm zur Registrierung der an der Goldfolie gestreuten a-Teilchen.
Moderne Hochenergieexperimente erzeugen hingegen eine so große Menge und Vielfalt an Teilchen, dass ein einzelner Detektor nicht mehr zur Detektierung aller Teilchen mitsamt ihrer Eigenschaften, d.h. Energie, Impuls, Ort, Ladung, ausreicht. Aus diesem Grund bestehen heutige Experimente aus mehreren einzelnen  Detektoren, die zu einem sogenannten Großdetektor zusammengebaut werden, z.B. den ATLAS-Detektor von CERN. Jeder Großdetektor besteht aus einzelnen Detektoren bzw. Detektorkomponenten.

Wirkungsweise eines Großdetektors
Um die bei Kollisionsexperimenten entstandenen Teilchen zu registrieren, werden Großdetektoren eingesetzt. Diese bestehen aus mehreren einzelnen Detektoren. Die einzelnen Komponenten des Großdetektors werden schichtweise angeordnet. Im Fall von kollidierenden Teilchenstrahlen werden Großdetektoren um den Kollisionspunkt herum schichtweise aufgebaut. Im Fall des Beschusses eines festen Targets mit einem Teilchenstrahl (fixed target experiment) wird der Großdetektor hinter  dem Kollisionspunkt (Target) gebaut, da aufgrund der Impulserhaltung die neu entstehenden oder abgelenkten Teilchen nach hinten fliegen.
Die schichtweise Abfolge der verschiedenen einzelnen Detektoren im Großdetektor ist immer ähnlich und geht vom Kollisionspunkt aus zum Ersten Spurdetektor, Zweiten Spurdetektor, Elektromagnetischen Kalorimeter, Hadronischen Kalorimeter und dann zu den Zählern, d.h. solche Vielzweck-Detektoren sind von innen nach außen in drei Bereiche gegliedert. Der innere Detektor dient der Messung von Teilchenspuren. In der Mitte befinden sich Kalorimeter zur Bestimmung der Energie der Teilchen. Daran schließen sich außen die so genannten Myonkammern an, mit denen Myonen, die schweren Vettern der Elektronen, aufgespürt werden. Ein solcher Vielzweck-Detektor befindet sich in einem sehr starken Magnetfeld, das die Bahnen der entstehenden Teilchen krümmt. Das Magnetsystem setzt sich dabei aus verschiedenen Elementen zusammen.

Erster Spurdetektor
Der erste Spurdetektor dient der Aufzeichnung der Bahn, bzw. Spur, der entstandenen Teilchen mit einer hohen Ortsauflösung. Häufig wird mit einem Elektromagneten ein starkes Magnetfeld, ca. 1 bis 2 Tesla, erzeugt, so dass geladene Teilchen eine Kreisbahn durchfliegen. Aus dem Bahnradius kann der Impuls der Teilchen bestimmt werden. Als erste Spurdetektoren werden mehrere Schichten von Halbleiterdetektoren oder Driftkammern verwendet, da diese die größte Ortsauflösung besitzen:
  • Halbleiterdetektoren, d.h. Zähldioden, Sperrschichtzähler, besitzen eine bessere Energieauflösung als Ionisationskammern, da sie Teilchen mit geringerer Energie detektieren können. Sie sind meist als dünne Halbleiterplättchen ausgebildet, die einen pn-Übergang enthalten. Zwischen dem n- und p-Leiter bildet sich eine ladungsträgerfreie Zone aus. Diese wird durch Anlegen einer Spannung in Sperrrichtung vergrößert. Dringt ein ionisierendes Teilchen in diese Zone ein, erzeugt es Paare von Elektronen und Löchern. Die dafür benötigte Energie beträgt ca. 1eV und liegt im Vergleich zur Ionisationsenergie eines Gasmoleküls (ca. 30eV) viel niedriger. Die Energieauflösung des Halbleiterdetektors ist somit größer. Die Idee der Halbleiterdetektoren ist die der Ionisationskammern. Ein geladenes Teilchen, welches sich durch ein Halbleiter bewegt, erzeugt entlang seiner Bahn Ionenpaare. Die Ionisationsenergie ist sehr niedrig, so dass Elektronen nicht vollständig abgetrennt werden. Das elektrische Feld bewirkt eine Bewegung der Ionenpaare zu den jeweils gegenteilig geladenen Schichten. Dies liefert einen elektrischen Impuls, der gemessen werden kann. Neben der niedrigen Ionisationsenergie besitzt der Halbleiterdetektor einen weiteren Vorteil gegenüber der Ionisationskammer. Die Dichte des Halbleiters ist sehr viel größer als von jedem Gas. Dadurch geben die einfallenden Teilchen einen großen Teil ihrer Energie ab. Auf der anderen Seite kann der Halbleiterdetektor nicht ein so großes Volumen abdecken, wie ein Szintillator, während seine Energieauflösung viel höher ist. Das gemessene Signal ist proportional zur Energie, die in der ladungsträgerfreien Zone abgegeben wurde.
  • Man unterscheidet zwei Arten von Drahtkammern: Proportionalkammern und Driftkammern. Die Proportionalkammer ist eine Art verbesserte Ionisationskammer. Sehr viele abwechselnd positiv und negativ geladene Drähte ersetzten die bei der Ionisationskammer verwendeten Kondensatorplatten. Beim Druchgang durch die Kammer löst ein Teilchen eine Folge von Entladungen zwischen benachbarten Drähten aus. Mit Hilfe des Computers kann man daraus die Bahn des Teilchen oder Teilchenbündels rekonstruieren. Die Drähte der Proportionalitätskammer sind in mehreren Schichten angeordnet, wobei die positiv geladenen Anodendrähte im einfachsten Fall senkrecht zu den negativ geladenen Kathodendrähten verlaufen. Die Drähte befinden sich in einer leicht zu ionisierenden Gasatmosphäre. Durchfliegt ein Teilchen den Detektor, erzeugt es Ionen und Elektronen. Diese Ladungsträger bewegen sich aufgrund des elektrischen Feldes zu den Drähten. In den Drähten, die sich in der Nähe der Teilchenbahn befinden, wird ein Signal erzeugt, das die Messelektronik registriert. Aus diesen Informationen kann die Flugbahn des Teilchens bestimmt werden. 
  • Die Driftkammer ist wie eine Proportionalitätskammer aufgebaut, doch wird die Struktur des elektrischen Feldes so geändert, dass man ein konstantes elektrisches Feld senkrecht zur Einflugrichtung erhält. Dies wird durch Einfügen von sogenannten Feldformungsdrähten erreicht. Die durch Ionisation entstandenen Elektronen driften daher mit konstanten und geringen Geschwindigkeiten (ca. 50 mm/ms). In der Nähe der Anodendrähte herrscht ein starkes elektrisches Feld. Dort kommt es durch Sekundärionisation zu einer Vervielfachung des Signals. Aus der bekannten Driftgeschwindigkeit kann der ungefähr gedriftete Weg bestimmt werden. Die Driftkammern erreichen so eine höhere Ortsauflösung  als Proportionalitätskammer.
Zweiter Spurdetektor
    Der zweite Spurdetektor soll ebenfalls die Bahn der Teilchen und deren Impuls messen, ist aber großräumiger angelegt. Die Ortsauflösung ist geringer als beim ersten Spurdetektor, dafür wird aber ein größeres Volumen um das Experiment abgedeckt. Der zweiten Spurdetektor besteht meist aus Driftkammern oder Proportionalitätskammern. Siehe Proportionalkammer, siehe Driftkammer. In manchen Experimenten werden an dieser Stelle auch Cerenkov-Detektoren eingesetzt. Diese messen die Teilchengeschwindigkeit über den Öffnungswinkel des Cerenkov-Lichtkegels. Siehe Cerenkov-Detektor.

    Kalorimeter - allgemein
    Kalorimeter (oder Schauerzähler) sind Detektoren, mit denen die Energie und die Art von Teilchen bestimmt werden kann. Ihr Vorteil besteht darin, dass sie auch gegenüber ungeladenen Teilchen empfindlich sind.
    In Kalorimetern wird die elektromagnetische und starke Wechselwirkung von Elementarteilchen mit Materie ausgenutzt. Sie bestehen aus passiven Materieplatten, z.B. Blei, Eisen, Uran, in denen die Wechselwirkung stattfindet, und die so als Absorptionsmaterial wirken, und dazwischenliegenden aktiven Detektorelementen (Szintillatoren), an die Photomultiplier angebracht werden.
    Neben Matrizen aus Szintillationszählern werden auch Halbleiterdetektoren und seltener auch Drahtkammern eingesetzt. Siehe Halbleiterdetektoren, siehe Drahtkammern.
    • Szintillationszähler. Die ersten Beobachtungen einzelner Teilchen wurden mit Hilfe von Szintillatormaterial (z.B. ZnS, Zinksulfid) gemacht. Energiereiche Teilchen, die in Szintillatormaterial eindringen, geben ihre kinetische Energie schrittweise fast vollständig an das Material ab. Dieses gibt die Energie wiederum in Form von sichtbarem Licht ab. Durch ein starkes Mikroskop kann man dieses als schwache Lichtblitze beobachten. Auf diese Weise, d.h. durch die Beobachtung von Lichtblitzen mit einem Mikroskop, wurde die Detektierung der a-Teilchen durchgeführt, die Rutherford bei seinem Streuexperiment verwendete. Heute läßt man das Licht auf die Photokathode eines Photomultipliers treffen und das verstärkte Signal durch eine Zählelektronik aufzeichnen. Aus der Stärke des Signals lässt sich die Energie der verursachenden Teilchen bestimmen. Um zur Energieauflösung zusätzlich eine Ortsauflösung zu erhalten, werden mehrere Szintillationszähler zu einer Matrix (array) zusammengefasst. Über mehrere Messkanäle werden die einzelnen Daten ausgewertet und die Flugbahn der detektierten Teilchen rekonstruiert.
    • Ionisationskammer. Ionisationsdetektoren dienen zur Messung der Energie, die ein Teilchen beim Durchqueren eines Mediums durch Ionisation verliert. Ionisationskammern bestehen aus einer mit Gas gefüllten Kammer und zwei Kondensatorplatten. An den Platten liegt eine elektrische Spannung an. Tritt ein ionisierendes Teilchen in das Medium ein, erzeugt es auf seiner Flugbahn Elektronen-Ionen-Paare. Durch die anliegende Spannung werden die Ladungsträger getrennt und driften sofort entlang der elektrischen Feldlinien. Die Bewegung der Ladungsträger wird als Stromstoß registriert. Im Einzelnen: Die Vorgänge sowie die Verwendung des Zählrohres hängen vor allem von der Spannung ab, die zwischen Anodendraht und Kathode anliegt. Dringt ionisierende Strahlung in das Zählrohr ein, so wird das Füllgas längs der Teilchenbahn ionisiert, wobei die Zahl der erzeugten Elektronen proportional zur Energie des einfallenden Teilchens ist. Liegt nun zwischen Anode und Kathode eine Spannung an, so werden die erzeugten Elektronen zur Anode hin beschleunigt. Ist diese Spannung jedoch zu gering, rekombiniert ein Teil der Elektronen auf dem Weg zur Anode wieder mit dem Füllgas und das Signal gibt keine Aussage über die Energie der detektierten Teilchen (Rekombinationsbereich). Erhöht man nun die Spannung, so werden irgendwann alle primär erzeugten Elektronen die Anode erreichen. Der gemessene Strom ist damit proportional zur Energie der einfallenden Strahlung. In diesem Bereich arbeiten zum Beispiel Ionisationskammern zur Messung der primären Dosisleistung der Strahlung. Bei einer weiteren Erhöhung der Spannung haben die primären Elektronen so viel Energie, dass sie durch Stöße mit den Atomen des Füllgases weitere Elektronen auslösen können. So entstehen sogenannte Elektronenlawinen mit 106 Sekundärelektronen. Die Größe des gemessenen Stroms ist aber weiter proportional zur Energie der einfallenden Strahlung (Proportionalbereich), da immer a Elektronen pro primärem Elektron entstehen. Ab einer bestimmten Spannung löst jedes einfallende Teilchen eine Kaskade von Sekundärteilchen aus, die das Zählrohr „sättigt“; jedes Teilchen erzeugt unabhängig von seiner Energie den gleichen Strom im Zählrohr. Dieser Bereich ist der eigentliche Zählbereich (auch Plateaubereich, Geiger-Müller Bereich) und wird zum Zählen der Teilchen verwendet. In diesem Bereich entstehen neben den Sekundärelektronen auch Photonen, die im gesamten Gasraum und an der Zählrohrwand weitere Elektronen auslösen (Photoeffekt). So wird das gesamte Zählrohr von der Entladung erfasst – d. h. jedes radioaktive Teilchen löst eine Entladung aus und kann so auch registriert werden. Eine weitere Erhöhung der Spannung führt zu einer Gasentladung, die nicht mehr selbstständig verlöscht und somit zu einer Zerstörung des Zählrohrs führt. Es ist somit essentiell wichtig, den Arbeitsbereich des Zählrohrs, d. h. die Spannung, die zwischen Kathode und Anode anliegt, dem Einsatzzweck anzupassen, um verwertbare Ergebnisse zu erhalten. Durch Variation der angelegten Spannung erhält man unterschiedlich wirkende Detektoren Ionisationskammern werden meist als Geiger-Müller-Zähler  verwendet, um Strahlung zu detektieren. In Großdetektoren werden häufig Drahtkammern verwendet, deren Funktionsweise beruht auf dem Prinzip der Ionisationskammern. Manchmal verwendet man auch Proportionalitätsröhren, die als Matrix angeordnet werden, um eine zusätzliche Ortsauflösung zu erhalten.
    Durch die Detektormatrizen werden die Strukturen der Teilchenschauer aufgezeichnet und später zur Teilchenidentifikation verwendet. Das ganze Kalorimeter muss so dick gebaut werden, dass die primären Teilchen ihre ganze  Energie stufenweise in einem Schauer (Kaskade) von Teilchen mit immer kleinerer Energie abgeben. Ein Teil dieser Energie wird in Wärme umgewandelt. Der überwiegende Rest wird letztendlich im Szintillator als sichtbares Licht abgegeben. Das Szintillatorlicht wird von Photomultipliern aufgefangen. Die Lichtmenge ist proportional zur Energie des eingelaufenen Primärteilchens. Die Dicke des Absorptionsmaterials muss auf die zu detektierenden Teilchen abgestimmt werden. Hadronische Kalorimeter besitzen dickeres Absorptionsmaterial als elektromagnetische Kalorimeter, da die mittlere freie Weglänge für starke  (bzw. hadronische) Wechselwirkungen größer ist als für elektromagnetische Wechselwirkungen.
    Elektromagnetisches Kalorimeter
    Im elektromagnetischen Kalorimeter wechselwirken die Teilchen mit dem Absorptionsmaterial und geben dabei Energie ab. Elektronen, Positronen und Photonen verlieren ihre Energie durch Bremsstrahlung, Paarbildung und Ionisation (elektromagnetische Wechselwirkungen). Sie verlieren ihre ganze Energie und werden absorbiert.
    Hadronisches Kalorimeter
    Im hadronischen Kalorimeter sind die Absorptionschichten dicker, so dass auch Hadronen ihre gesamte Energie abgeben und absorbiert werden. Hadronen  verlieren ihre Energie hauptsächlich durch mehrfache Kernstöße (Kernwechselwirkungen). Zu den Hadronen zählen z.B. Protonen und Neutronen.

    Zähler
    Der Zähler registriert Teilchen, die von keinem der anderen Detektoren absorbiert wurden, z.B. Müonen. Die Zähler sind wie Kalorimeter aufgebaut. Siehe Szintillationszähler
    • Der Cerenkov-Detektor (Cerenkov- Zähler) besteht aus einem Material mit hohem Brechungsindex, in dem Teilchen mit einer Geschwindigkeit, die größer als die materialspezifische Lichtgeschwindigkeit ist, Lichtkegel erzeugen. Mit Hilfe dieses Detektors können einzelne Teilchenarten unterschieden und ihre Energie bestimmt werden. Eine Schallquelle, die sich schneller als der Schall in Luft bewegt, erzeugt einen Machschen Kegel. Ähnlich hierzu erzeugt ein elektrisch geladenes Teilchen eine sich mit einer kegelförmigen Front ausbreitende elektromagnetische Welle, wenn es sich schneller als mit der materialspezifischen Lichtgeschwindigkeit durch ein Medium bewegt. Mit Hilfe eines Photomultipliers, kann diese Strahlung, d.h. die sogenannte. Cerenkov- Strahlung oder das Cerenkov-Licht, und somit das Teilchen detektiert werden. In dem durchflogenen Medium sind vier kreisförmige Lichtwellenfronten. Sie symbolisieren die durch das Teilchen erzeugte Cerenkov-Strahlung. Die Einhüllende dieser Kreise bildet die Wellenfront des Cerenkov-Lichts. Der Öffnungswinkel a kann aus der Vakuumlichtgeschwindigkeit c, dem Brechungsindex n des Mediums und der Teilchengeschwindigkeit v berechnet werden: sin (a) = c/v = c_o/(n*v) Der Öffnungswinkel a entspricht dem des Machschen Kegels. Der Cerenkov- Detektor wird vom begrenzten, in Vorwärtsrichtung abgestrahlten Cerenkov-Lichtkegel ringförmig beleuchtet. Aus dem Durchmessers des Rings kann der Winkel q bestimmt werden. Aus 90° - q = a folgt sofort a. Zum Vermessen des Ringdurchmessers wird nicht nur ein sondern eine ganze Matrix  aus Photomultipliern verwendet. Aus dem Durchmesser erhält man q und somit die Teilchengeschwindigkeit. Dieses Verfahren wird z.B. am DESY mit Hilfe des RICH Detektors durchgeführt.

    Montag, 10. Mai 2010

    Synchrotron



    Bei einem Synchrotron handelt es sich um einen Teilchenbeschleuniger, in welchem geladene Teilchen, d.h. Elektronen oder Ionen, auf geschlossenen Bahnen gezwungen und bei jedem Umlauf beschleunigt werden, so dass hohe Geschwindigkeiten und damit große Kinetische Energien möglich sind.

    Aufbau und Wirkungsweise eines Synchrotrons oder auch Kreisbeschleunigers

    Ein Synchrotron besteht aus einer Vielzahl von Ablenkmagneten, die in einer kreisförmigen Anordnung aufgestellt sind und den Strahllauf auf einer geschlossenen Bahn halten. Zwischen den Magneten bleibt genügend Platz für eine oder mehrere Beschleunigungsstrecken. Die Teilchenbahn ist somit durch den Aufbau fest vorgegeben. Damit die Teilchen diesen idealen Orbit durchfliegen, werden zusätzliche Fokussierungsmagnete eingebaut. Während der Beschleunigung wird die Magnetfeldstärke synchron mit der Teilchenenergie erhöht. Da das Synchrotron nicht bei beliebig kleiner Strahlenergie arbeiten kann, muss der Teilchenstrahl zuerst in einem Vorbeschleuniger, z.B. einem Linearbeschleuniger,  beschleunigt werden. Dann kann er bei minimalem Magnetfeld in das Synchrotron injiziert werden. Dafür verwendet man einen Injektionsmagnet oder auch Kickermagnet, der durch einen kurzen magnetischen "Kick" die Teilchen auf die Synchrotronkreisbahn lenkt. Während des Beschleunigungsvorgangs wird die Magnetfeldstärke der Ablenkmagnete entsprechend der Teilchenenergie erhöht. Ist die Endenergie erreicht, können die Teilchen durch einen sehr schnell gepulsten Ejektionsmagneten, siehe Kickermagnet, ausgelenkt werden. Danach werden dieTeilchen zu den Experimenten geleitet.
    Siehe auch:
    http://gerhardkemme.blogspot.com/2010/05/synchrotron-detektoren.html
    Ablenkungs- und Fokussierungsmagnete
    Im Folgenden werden verschiedene Arten von Magneten vorgestellt, die in einem Beschleunigersystem zum Einsatz kommen. Man unterscheidet hierbei vier Arten von Magneten:

    Dipolmagnete, um die Flugrichtung eines Teilchenstrahls zu verändern
    Beschleunigte Teilchen müssen in Speicherringen auf die Kreisbahn bzw. zu den einzelnen Experimentieranlagen gelenkt werden. Hierfür verwendet man Dipolmagnete.
    Bewegt sich ein elektrisch geladenes Teilchen durch ein Magnetfeld, erfährt es 
    eine Kraft senkrecht zu Bewegungs- und Magnetfeldrichtung, die sogenannte Lorentz-Kraft. Die Ablenkung des Teilchens hängt von seiner Ladung und der Richtung des Magnetfeldes ab.
    Dipolmagnete bestehen aus einem U-förmigen Eisenjoch, um dessen Enden Magnetspulen gewickelt sind. Im Zwischenraum bildet sich so ein homogenes Magnetfeld aus. Hier befindet sich die Vakuumröhre in der sich die Teilchen bewegen.
    Auf Grund hoher Teilchenimpulse müssen Dipolmagnete starke Magnetfelder erzeugen, da der Bahnradius der Teilchen sonst zu groß würde. Um diese Feldstärken zu erreichen, werden immer häufiger supraleitende Spulen verwendet. Durch diese Spulen können höhere elektrische Ströme verlustfrei fließen und somit stärkere Magnetfelder - ohne die im Vergleich zu herkömmlichen Magneten großen Energieverluste - erzeugt werden, z.B. solche mit 5 bis 8 Tesla.

    Quadrupol- und Sextupolmagnete, zur Fokussierung eines Teilchenstrahls
    Der Teilchenstrahl der Beschleuniger sollte sich auf der idealen Bahn im Zentrum der Vakuumröhren bewegen. In der Praxis ist der Strahl jedoch immer etwas von diesem sogenannten idealen Orbit entfernt. Damit der Strahl nicht zu weit abweicht und letztendlich verloren geht, muss er fokussiert werden. Hierzu verwendet man Quadrupol- und Sextupolmagnete.
    Quadrupolmagnete
    Quadrupolmagnete bestehen aus vier Eisenkernen. Um die Eisenkerne sind vier Spulen gewickelt. Durch den Spulenstrom bilden sich zwei Südpole und zwei Nordpole aus. Im idealen Orbit heben sich die Wirkungen der Magnetfelder gegenseitig auf. Durchfliegen Teilchen den Magneten nicht im idealen Orbit, erfahren sie eine Lorentz-Kraft. Je nach Lage werden sie zum idealen Orbit gelenkt bzw. vom ihm weggelenkt. Auf Grund des Feldlinienverlaufs wirken Quadrupolmagnete in einer Richtung fokussierend und in der dazu senkrechten Richtung defokussierend. Man bringt in einem Beschleuniger daher meist zwei Quadrupolmagnete hintereinander an, diese aber um 90° zueinander verdreht, so dass sie in Kombination den Strahl fokussieren. Quadrupolmagnete wirken auf Teilchenstrahlen fast wie fokussierende Linsen optischer Systeme auf Licht.
    Sextupolmagnet
    Der Quadrupolmagnet fokussiert die Teilchen, so dass sie im idealen Orbit fliegen. Der Sextupolmagnet hingegen fokussiert Teilchen, die auf Grund ihrer unterschiedlichen Impulse durch den Quadrupolmagneten in Flugrichtung defokussiert wurden. Der Sextupolmagnet ist vergleichbar mit einer "Farbkorrektur" eines besseren optischen Systems.

    Kickermagnete, um Teilchenpakete aus dem Beschleunigungssystem zu lenken.
    Kickermagnete sind spezielle Dipolmagnete. Sie werden eingesetzt, um beschleunigte Teilchen aus dem Beschleunigungssystem oder in das Beschleunigungssystem zu lenken. Kickermagnete müssen innerhalb von ca. 10-7 Sekunden das Ablenkmagnetfeld erzeugen, damit nur ein Teilchenpaket abgelenkt wird.
    Daher werden Kickermagnete nicht mit Eisenkernen, sondern mit Ferritkernen ausgestattet. In Ferrit entstehen beim Magnetisieren keine Wirbelströme, die die "Aufbauzeit des Feldes" verlängern würden. Ähnlich verzögernd würden die vielen Windungen der Magnetspule wirken. Man verwendet daher nur eine Spulenwindung und vergrößert die Stromstärke in dieser Windung gegenüber einer normalen Spule entsprechend.

    Wiggler-Magnete, um Synchrotronstrahlung zu erzeugen.
    Wiggler-Magnete werden zur Erzeugung von Synchrotronstrahlung verwendet. Ein Wiggler-Magnet besteht aus mehreren kurzen Ablenkmagneten abwechselnder Polarität. Durchfliegt ein Elektron den Wigglermagneten, wird es mehrmals abgelenkt und gibt dabei Energie in Form von Synchrotronstrahlung ab. Die einzelnen Strahlablenkungen sind dabei sehr klein, die entstehende Strahlung summiert sich aber zu hoher Intensität. Die Synchrotronstrahlung ist scharf in Flugrichtung gebündelt.

    Beschleunigerbausteine
    Um den zu beschleunigenden Teilchen höhere Energien zuzuführen, wurden die Teilchen nicht nur durch ein einziges elektrisches Feld beschleunigt. Die Teilchen sollten hintereinander viele kleine Spannungsdifferenzen ausnutzen. Diese Überlegungen führten zum Bau von Driftröhrenstrukturen.
    Driftröhren
    Ein Teilchen wird zu einer ersten geladenen Röhre (Driftröhre) hin beschleunigt. Durchfliegt das Teilchen die erste Röhre, wird diese umgepolt. In der Röhre herrscht kein elektrisches Feld, so dass das Teilchen nicht beeinflusst wird.
    Zwischen der ersten und zweiten Röhre wird das Teilchen weiterbeschleunigt. Ist das Teilchen in der zweiten Röhre, wird wieder umgepolt, zwischen der zweiten und dritten Röhre wird das Teilchen wieder beschleunigt usw.
    Die Teilchen werden immer schneller. Damit eine Wechselspannung mit konstanter Frequenz verwendet werden kann, muss die Länge der Röhren zunehmen. Die Teilchen durchfliegen so die Röhren immer beim Umpolen der Spannung.
    Haben die Teilchen annähernd Lichtgeschwindigkeit erreicht, bleibt die Röhrenlänge konstant, da die zugeführte Energie zu keiner wesentlich größeren Geschwindigkeitsänderung mehr führt.
    Runzelröhren
    Haben die Teilchen "fast" Licht- geschwindigkeit erreicht, ist ein anderer Beschleunigungsmechanismus effektiver.
    Man sendet elektrische Hochfrequenz-Wellen so in eine runde Metallröhre, dass ein beschleunigendes elektrisches Feld entsteht, das sich synchron zu den sich bewegenden Teilchen ausbreitet. Die Hochfrequenzwellen werden von sogenannten Klystrons erzeugt. Das Teilchen wird dadurch ständig beschleunigt, es "reitet" auf der elektromagnetischen Welle.
    Da die Ausbreitungsgeschwindigkeit der Welle (Lichtgeschwindigkeit!) größer ist als die der Teilchen ("fast" Lichtgeschwindigkeit), baut man in die Röhre Irisblenden ein (im Abstand einer halben Wellenlänge), um diese zu "bremsen". So wird die Ausbreitungsgeschwindigkeit der Welle an die der Teilchen angepasst.
    Die gesamte Struktur besteht aus vielen solchen, durch Irisblenden getrennten Kammern und wird als Runzelröhre bezeichnet.
    In Kreisbeschleunigern werden kurze Beschleunigungsstrecken benötigt , die aus einigen Kammern bestehen, man nennt sie Kavitäten.

    Beschleunigung mit Hilfe von elektromagnetischen Wellen

    Ähnlich wie ein Surfer auf einer Wasserwelle reitet, "reiten" geladene Teilchen auf elektromagnetischen Wellen.
    Teilchen, die sich näher an den Wellenbergen und -tälern befinden, erfahren einen größeren Energiezuwachs. Teilchen die sich näher an der "Wellenmitte" befinden, erfahren einen geringeren Energiezuwachs. Das ganze Teilchenbündel wird somit zusammengehalten, da - anschaulich gesprochen - bzgl. dem Mittelfeld eines Bündels die zurückfallenden Teilchen angeschoben und die vorauseilenden Teilchen etwas gebremst werden. Mit dieser Technik kann z.B. in Elektronen-LINAC`s eine Energie von 15 MeV pro Meter (!) zugeführt werden.

    Linearbeschleuniger
    Die ersten Teilchenbeschleuniger, die entwickelt wurden, besaßen eine gerade bzw. lineare Beschleunigungsstrecke. Man nennt diese Art von Beschleunigern daher auch Linearbeschleuniger oder auch LINAC (LINear ACcelerator). Mit den ersten LINACs wurden ausschließlich Elektronen beschleunigt.
    Aufbau eines modernen Elektronen-LINACs:
    In einer Teilchenquelle werden die Elektronen aus einer Glühkathode emittiert, die meist im Pulsbetrieb läuft, d.h., dass eine beschleunigende Spannung zwischen der Kathode und der Anode nur für einige Mikrosekunden eingeschaltet wird, und nur innerhalb dieser Zeit Elektronen emittiert werden. Danach werden die Elektronen durch Runzelröhren beschleunigt. Die ersten Elektronen-LINACs verwendeten noch Driftröhren oder Van de Graaff- Generatoren.
    Der Elektronenstrahl wird zu Beginn durch lange zylindrische Spulen (Solenoidmagnete) fokussiert. Erst wenn er höhere Energien erreicht hat, verwendet man die effektiveren Quadrupolmagnete.
    Am Ende des Beschleunigers wird der Elektronenstrahl zu den einzelnen Experimenten hin abgelenkt. Die Endenergie der Elektronen hängt von der Länge des Beschleunigers ab.

    Kontrolle und Steuerung des Teilchenstrahls
    Während des Betriebs geht von einem Teilchenbeschleuinger starke elektromagnetische Strahlung aus, z.B. Röntgenstrahlung. Alle Einstellungen und Messungen müssen deshalb von entfernten Kontrollräumen ausgeführt werden. Die Kontrolleinrichtungen einer Beschleunigeranlage haben im wesentlichen die Aufgabe, das Vakuum im Strahlrohr und die exakte Teilchenbahn zu überwachen.
    Von den Kontrollräumen aus wird ununterbrochen die Position des Teilchenstrahls im Strahlrohr überprüft. Hierzu verwendet man vier Elektroden, die vom Zentrum des Strahlrohres den gleichen Abstand besitzen. Beim Durchlaufen erzeugt der Strahl auf Grund seiner elektrischen Ladung in den Elektroden Spannungsimpulse. Sollte der Strahl sich nicht im Zentrum befinden, sind diese unterschiedlich. Der Kontrollrechner steuert - sobald ein solches Signal auf eine Abweichung hinweist - Ablenkmagnete so an, dass der Strahl wieder auf seine gewünschte Bahn (idealer Orbit) gelenkt wird. Von den Kontrollräumen aus wird auch der Druck in den Vakuumröhren geprüft, um eventuelle Lecks zu finden und schließen zu können. Neben der Position des Teilchenstrahls werden ständig noch eine Reihe weiterer Strahlparameter gemessen, wie z.B. die Stärke des Strahlstroms, Strahlgröße oder das Frequenzspektrum des Strahls.

    Das Vakuum im Strahlrohr
    In den Strahlrohren muss ein extrem hohes Vakuum (10^-6 bis 10^-10 hPa) herrschen. Ohne dieses "gute" Vakuum würden die beschleunigten Teilchen an zu vielen vorhandenen Gasmolekülen gestreut werden und so zu weit aus dem idealen Orbit gebracht getragen werden und damit dem Beschleunigungssystem verlorengehen. Bei Kreisbeschleunigern (bzw. Speicherringen) ist ein Ultra-Hoch-Vakuum (ca. 10^-10 hPa) nötig, da die Teilchen das Beschleunigersystem sehr oft durchlaufen und sich damit die Wahrscheinlichkeit, an ein vorhandenes Gasmolekül zu stoßen, ansteigt. So beträgt - trotz des sehr guten Vakuums im HERA-Ring bei DESY - die Anzahl der noch vorhandenen Gasmoleküle etwa 100 000 pro cm³! Das klingt viel, aber ist  verglichen mit 27 000 000 000 000 000 000 pro cm³ bei normalem Luftdruck doch gering. Ein Vakuum zu erzeugen, das die obigen Bedingungen erfüllt, erfordert extrem hohen technischen Aufwand. Die Herstellung der Vakuumkammern erfordert neben speziellen Schweiß- und Löttechniken vor allem spezielle Verfahren zur Reinigung der Oberflächen. Die Vakuumkammern müssen chemisch gereinigt werden, da sich Verunreinigungen der Kammern nur sehr langsam im Vakuum lösen. Dies hätte eine andauernde Verschlechterung des Vakuums zur Folge. Nach der chemischen Reinigung werden die Kammern unter Vakuum auf ca. 400°C aufgeheizt, damit an der Vakuumkammer gebundene Moleküle gelöst und abgesaugt werden.
    In Kreisbeschleunigern tritt ein weiteres Problem auf: Die Synchrotronstrahlung. Diese trifft auf die Wände der Vakuumkammern und führt zu starken lokalen Temperaturunterschieden. Dadurch können sich gebundene Moleküle von der Kammeroberfläche lösen und das Vakuum verschlechtern. Um dies zu vermeiden, werden an solchen Stellen wassergekühlte Absorber angebracht, die die Synchrotronstrahlung absorbieren und den Temperaturunterschied ausgleichen.
    Das Vakuum selbst wird in mehreren Arbeitsschritten erzeugt, d.h. durch Hintereinanderschaltung unterschiedlicher Pumpen stufenweise verbessert. Im ersten Schritt verwendet man konventionelle Rotationspumpen. Danach Turbomolekularpumpen und schließlich Ionengetterpumpen. Die Ionengetterpumpen sind über das ganze Beschleunigungssystem verteilt und arbeiten andauernd, um das erzeugte Vakuum aufrechtzuerhalten.

    Sonntag, 28. März 2010

    Atomuhr

    Allgemeines
    Eine Atomuhr ist ein Gerät zur sehr genauen Messung der Zeit, deren Zeittakt der Eigenfrequenz von Caesium-Atomen abgeglichen wird. Nachfolgend die Beschreibung der Wirkungsweise einer solchen Uhr: Es wird ein Quarzoszillator VCXO (Voltage-Controlled Xtal Oscillator) als Zeitgeber benutzt, der eine  Wechselspannung mit der geregelten Frequenz fn zur Verfügung stellt. Mit dieser Frequenz fn  wird einerseits die eigentliche Uhr gesteuert und andererseits das Vergleichssignal zur konstanten Frequenz des Cs-Atomstrahls im Resonator zur Verfügung gestellt. Die Frequenz kann als Stellgröße wie bei einem Regelkreis automatisch nachgestellt werden, bis Resonanz zur konstanten Schwingung des Cäsium-Atoms erreicht ist. Wobei die Cäsium-Atome eine bekannte konstante Resonanzfrequenz von 9192 MHz besitzen. Die Wechselspannung des Quarzoszillators mit Frequenz fn wird im Frequenz-Generator in ein elektromagnetisches Wechselfeld mit fp = 9192 MHz umgewandelt. Diese "Mikrowelle" und ein Atomstrahl aus Caesium 133 werden gemeinsam in die Resonanz-Apparatur eingekoppelt, so dass die Cs-Atome bestrahlt werden und die Schwingungen der Mikrowelle und des Atoms miteinander "wechselwirken". Bei fo = fp = 9192 MHz registriert man eine resonanzartige Reaktion der Atome, die in ein Nachweissignal Id mit einer spektralen Linienbreite W umgesetzt wird. Das Signal Id enthält somit die Information, ob die Frequenz fp mit der Übergangsfrequenz der Atome fo übereinstimmt, das Signal wird so weiter verarbeitet, dass daraus ein Regelsignal Ur zur Regelung des Quartzoszillators VCXO zur Verfügung gestellt wird, dessen natürlichen Frequenzschwankungen werden so entsprechend der eingestellten Regelzeitkonstanten unterdrückt, und die Stabilität der atomaren Resonanz bestimmt die Qualität des Ausgangssignals. Vom VCXO wird meistens eine Normalfrequenz fn = 5 MHz zur Verfügung gestellt. Man rechnet meistens mit einem Umrechnungsfaktor k, so dass
    fp = k * fn = k * 5 MHz = 9192,631770 MHz.

    Übergänge zwischen den Energieniveaus
    Die Atome des Cs-Strahls schwingen konstant 9192 MHz und man kann sich diesen Vorgang eventuell so vorstellen, dass eine Mikrowellenstrahlung von diesem Atom ausgesandt wird, wenn ein Elektron von einer höheren Bahn auf eine niedrigere fällt. Die Wellenlänge des ausgesandten Lichtes hängt dabei vom Energieabstand zwischen den Bahnen ab. Eine hohe Frequenz deutet auf einen sehr kleinen Energieunterschied hin,
    Warum sind Elektronen überhaupt auf bestimmten Bahnen? Eine grundlegende und wichtige Tatsache der Quantenphysik ist es, dass die Elektronen der Atomhülle ihre spezifischen Eigenschaften haben, welche durch ihre Quantenzahlen beschrieben werden. Die Quantenzahlen bestimmen auch die Energie, die das Elektron hat, denn sie stammen von seinen Bewegungseigenschaften bzw. seinen elektrischen und magnetischen Eigenschaften. Deswegen haben die Elektronen verschiedene Bahnen im Atom. Die Hauptquantenzahl bestimmt die Bahn, aber daneben gibt es weitere Zahlen wie den Spin, der eine dem Elektron eigene magnetische Größe darstellt und die Zustände ”spin up” oder ”spin down” zeigen kann. Erst, wenn man die Elektronen anregt, wechseln sie von einem Zustand zum anderen, z.B. kann man etwas Energie zuschießen, per Mikrowelle oder Photon, um ein Elektron mit "spin down" zu veranlassen, den Sprung auf das Energieniveau "spin up" zu schaffen. Das Photon wird absorbiert, aber nach einiger Zeit fällt es wieder zurück  und strahlt dabei wieder ein Photon, z.B. mit 9192,631770 MHz, beim Caesium aus. Auch das aufgenommene Photon muss genau die passende Energie haben. Nachfolgend soll der Elektronenübergang im Caesium-133 verwendet werden, von dem die Frequenz des ausgesandten oder absorbierten Photon bekannt ist. Dadurch soll eine Quartzuhr immer wieder genau nachgestellt werden.

    Funktionsprinzip
    Die Caesiumuhr funktioniert nach folgendem Prinzip. In einem kleinen "Ofen", welcher einige Gramm des Metalls enthält, wird Caesium-133 verdampft und zu einem Cs-Atomstrahl mit Hilfe der Düse des Ofens gebündelt. Es handelt sich hierbei um kein radioaktives Material, d.h. die Caesium-133-Atome sind stabil und zerfallen nicht.
    Kennzeichnend für den Atombau des Caesiums ist, dass sich nur ein Elektron auf der äußeren Schale befindet. Die inneren Schalen sind gefüllt mit stabilen Elektronen, so dass nur das Elektron auf der äußeren Bahn Relevanz für die Zwecke einer Atomuhr hat. Das äußere Elektron  kann zwei Spinzustände einnehmen. Solange die Temperatur des Cäsiums nicht extrem niedrig ist, sind beide Zustände etwa gleich besetzt. Um den Übergang messen zu können, muss einer der Zustände selektiert werden. Wie erwähnt, hat das Elektron durch den Spin ein magnetisches Moment und kann also unter Einwirkung eines äußeren Magnetfeldes abgelenkt werden, je nach Spin in unterschiedliche Richtungen. Der Strahl hinter dem Ofen passiert einen ersten Magneten, genannt Polarisator, der nur Atome im Energiezustand E2 in die gewünschte Richtung ablenkt. Danach ist ein Strahl von Atomen vorhanden, bei denen alle äußeren Elektronen der Atome den Zustand ”spin down” besitzen und sich somit im energetisch tieferen Zustand befinden. Somit tritt ein zustandsselektierter Atomstrahl in den Mikrowellenresonator ein. Allgemein gilt, dass bei Übergang der Atome von dem einen in den anderen Zustand Energie in Form elektromagnetischer Strahlung mit einer Frequenz im Mikrowellenbereich von 9192631770 Hz absorbiert oder emittiert wird. Die Atome werden durch Mikrowellenstrahlung angeregt, den energetischen Zustand zu wechseln. Je näher die Mikrowellenfrequenz bei der Eigenfrequenz der Cäsium-Atome liegt, desto grösser ist die Wahrscheinlichkeit, dass Atome in den anderen Zustand übergehen. Im Resonator können die Übergänge zwischen den beiden Zuständen stattfinden. Durch Absorption von Photonen mit der genau passenden Frequenz kann man das Elektron umklappen lassen in den Zustand "spin up". Daher lässt man den Strahl durch einen Mikrowellen-Resonator fliegen, in dem die Atome mit Mikrowellen zusammentreffen, die exakt die passende Frequenz haben, um absorbiert zu werden. In den beiden Endpartien des Resonators werden die Atome mit dem Mikrowellenfeld bestrahlt, und im Resonanzfall gehen die Atome in den Zustand E1 über.
    Nach der Wechselwirkung mit dem Mikrowellenfeld  werden die Cäsium-Atome sortiert und jene Atome, die Energie aufgenommen haben, gezählt, d.h. es wird schließlich die Besetzung des anfangs ausselektierten Zustands gemessen. Wenn die Frequenz des Mikrowellenresonators mit der Eigenfrequenz des Atoms übereinstimmt, erhält man ein Signal-Maximum. Der Analysatormagnet lenkt nun gerade diese Atome auf einen geheizten Draht. Dort werden Cs-Atome zu Cs+-Ionen, die durch ein magnetisches Massenfilter auf die erste Dynode eines Sekundärelektronenvervielfachers (SEV) gelenkt werden.
    Das im Diagram skizzierte Detektorsignal ID als Funktion von fp wird als "atomares Resonanzsignal" bezeichnet. Die Breite dieses Signals liegt im Bereich von 50-500 Hz und wird durch die Flugzeit T der Atome entlang der Resonatorlänge L bestimmt. Wenn die Flugstrecke lang genug ist, kann erwartet werden, dass der Strahl hinter dem Resonator ausschließlich Atome mit "spin up" beim äußeren Elektron aufweist. Ist aber die Frequenz etwas abweichend, werden nicht genug Elektronen "umgeklappt".
    Das ist die Idee wie festgestellt werden kann, ob die Uhr aus dem Takt gerät! Somit wird die Frequenz des Mikrowellen-Resonators an die Uhr gekoppelt. Hinter dem Resonator werden mit Magneten erneut die Atome nach Spin sortiert. Wenn es ein Atom gibt, bei der der Spin noch nach unten zeigt, treffen diese im unteren Detektor auf. Aus dem Verhältnis kann bestimmt werden, wie die Uhr nachgestellt werden muss, um wieder genau die richtige Frequenz zu haben - so dass die Uhr genau läuft!

    Freitag, 12. März 2010

    Theorie und Theorien / theory and theories

     Allgemeines
    So wie Autoscheinwerfer in der stockdunklen Nacht mühsam die kurvenreiche Landstraße vor einer Limousine ertasten, so sind es Theorien, die Licht ins Dunkle des Seins und der Zukunft der menschlichen Spezies bringen. An dieser Stelle soll von Wissenschaftlichen Theorien die Rede sein, durch die ein Ausschnitt der Realität als Modell sichtbar gemacht und erklärt wird. Wobei es hier nur darum gehen soll, was die Qualität einer Theorie ausmacht, d.h. wie die Spreu vom Weizen getrennt werden kann und Theorien nicht zu desinformativen oder gar manipulativen geistigen Gebilden verkümmern.

    Wahrheit
    Es geht also bei diesem Aspekt um den Begriff der Wahrheit im Rahmen einer Wissenschaftlichen Theorie.  Überzeugend ist eine Erkenntnistheorie und Wissenschaft, die Wahrheit, nichts als die Wahrheit, ermitteln will. Wobei sich der Wahrheitsbegriff dann unterscheidet und eigentlich in der Bereitschaft gipfelt, dass zwischen gutwilligen Menschen sprachlich in Rede und Gegenrede, auch Diskussion genannt, Tatsachen ermittelt werden können. Insbesondere können in solchen Diskursen zwischen auch die Schwachpunkte von Thesen, Hypothesen und Theorien ermittelt werden, so dass Absurditäten oder Fehlerhaftigkeiten festgestellt werden können. Das grundlegende Verfahren, um zu neuen wahren Aussagen zu gelangen, ist die Methode logischer Schlussfolgerungen mit der Wahrheitsfunktion der Implikation. Dies geht im Prinzip so, dass als allgemeiner Sachverhalt eine Schlussfolgerung akzeptiert ist, z.B. "Wenn es regnet, wird die Straße nass". Jetzt kann im speziellen Fall, vom Vorhandensein und damit der Richtigkeit der einen Teilaussage auf die Richtigkeit der anderen Teilaussage geschlossen werden. Zentral ist somit, dass eine allgemein anerkannte Schlussfolgerung als Wenn-Dann-Beziehung existiert, damit im speziellen Fall eine Schlussfolgerung vorgenommen werden kann. Jetzt stellt es ein typisches Problem bei der Entwicklung eines theoretischen Ansatzes dar, dass irgendein beobachteter physikalischer Effekt argumentativ in der Luft hängt, da keine Beziehung zwischen dem physikalischen Effekt und der behaupteten Ursache hergestellt werden kann. Wenn man das physikalische Phänomen der Anziehung zwischen Massen mit einer Ursache begründen wollte, dann könnte jemand auf die Idee kommen, als Ursache die Sehnsucht von postulierten Materietierchen anzunehmen oder die Herrschaft einer unsichtbaren Materiehexe. All solche Annahmen werden kaum auf Akzeptanz stoßen und sind daher beliebig und im Dutzend billiger. Worauf es - nach meiner Ansicht - ankommt, es gilt durch die Ausarbeitung einer Theorie zu überzeugen, dass beobachtete physikalische Phänomene ihre Ursache in physikalischen Sachverhalten haben, die man selber ins Feld führt. Man kann mit einer sorgsam formulierten Theorie also die bewusste allgemeine Erfahrung ersetzen, dass ein beobachteter Effekt die behauptete Ursache hätte. Wobei der Aufbau dieser Theorie dann kleinschrittig von einer allgemein anerkannten Erfahrung und Tatsache zu einer neuen Schlussfolgerung kommt und sich so eine durchgängig klare Theorie ergibt, die nachvollziehbar, gut lesbar und überzeugend ist. Allerdings wird man bei solcher Überprüfbarkeit auch sagen können, dass einzelne Schlüsse im Verdacht stehen, falsch zu sein. Ziel ist jedenfalls der Entwurf einer schlüssigen Theorie, die für sich bereits überzeugt und wo dann bestätigende experimentielle Ergebnisse nur noch das Sahnehäubchen oben drauf sind.

    Begriff
    Unter einem Begriff versteht man die Zusammenfassung einer Vielzahl von Erscheinungen (auch Gegenstände und abstrakte Vorstellungen) zu einer gedanklichen Einheit, welche durch ein Wort ausgedrückt wird. Der Bedeutungsgehalt eines solchen Wortes umfasst somit eine ganze Vorstellungswelt, die das menschliche Subjekt mit dem Begriff verbindet. Der Begriffsinhalt wird im günstigsten Falle durch eine einzige Definition festgelegt, die seine Eigenschaften beschreibt und ihn von anderen Begriffen abgrenzt, und wird durch ein Wort oder ein Symbol bezeichnet. Mit Hilfe einer solchen Definition kann geprüft werden, ob ein Gegenstand, auf welchen der Begriff angewandt wird, auch dem Begriffsinhalt entspricht. Ein Begriff wird meist mit einer Lautfolge oder einer Zeichenkombination benannt und steht damit einer verbalen Verständigung zur Verfügung. Die Gesamtheit, der im Begriff vorhandenen Merkmale wird als Begriffsinhalt oder auch Intension bezeichnet. Die Gesamtheit der Gegenstände, die ein Begriff bezeichnet, heißt Begriffsumfang oder auch Extension des Begriffs. Je größer der Umfang des Begriffs ist, desto geringer ist sein Inhalt und umgekehrt.

    Theorie-Beispiele: Gruppentheorie (Mathematik)

    Von einer Gruppe spricht man, falls für eine Menge zusammen mit einer Verknüpfung je zweier Elemente dieser Menge, hier geschrieben als a X b, die folgenden Anforderungen erfüllt sind:
    1. Die Verknüpfung zweier Elemente der Menge ist wiederum ein Element derselben Menge, z.B. a X b € IM. Nan nennt dies Abgeschlossenheit.
    2. Für die Verknüpfung ist die Klammerung unerheblich, das heißt es gilt (a X b) X c = a X (b X c) für alle a,b,c. Man bezeichnet dies als Assoziativgesetz.
    3. Es gibt ein Element e in der Menge, das bezüglich der Verknüpfung nichts bewirkt, also ein Neutrales Element: a X e = e X a = a darstellt. Man nennt dies Neutrales Element.
    4. Zu jedem Element a gibt es bezüglich der Verknüpfung ein Umkehr-Element, also ein Inverses Element a^* . Dieses hat die Eigenschaft, beim Verknüpfen mit a das neutrale Element zu ergeben: a^* X a = a X a^* = e. Man nennt dies Inverses Element.
    Es stellt sich die Frage nach dem Nährwert solcher mathematischen Struktur - dieser liegt insbesondere in der mathematischen Begriffsbildung, d.h. es ist in Bezug auf eine Verknüpfung und ihre Menge nach Abprüfung der Gruppen-Eigenschaften entscheidbar, ob es sich bei der Verknüpfung um eine Gruppe handelt.

    Beispiele der Überprüfung, ob es sich bei einer Verknüpfung um eine Gruppe handelt
    1. Es sei eine additive Verknüpfung vorhanden, die jeder Addition # das Resultat nach der folgenden Verknüpfungstafel:
    zuordnet, dies wäre die Addition der Mischungen von knetbaren Substanzen, z.B. eine Kugel Kuchenteig und eine Kugel Kuchenteig, gibt eine Kugel Kuchenteig, somit 1 # 1 = 1.
    Die Grundmenge sei die Menge MI={0, 1}
    Insofern wäre Gruppeneigenschaft Abgeschlossenheit erfüllt, da das Ergebnis der Verknüpfung die Zahlenwerte 0 oder 1 ergibt und somit Element von IM={0, 1} ist.
    Die Prüfung auf Assoziativgesetz:
    • 1 # (1 # 1) = 1 # 1 = 1
    • (1 # 1) # 1 = 1 # 1 = 1
    Somit ist für diese Verknüpfung auch das Assoziativgesetz erfüllt.
    Entsprechend wird man finden, dass auch Neutrales Element 1 # 0 = 0 # 1 = 1 erfüllt ist.
    Allerdings wird man kein Inverses Element 1^* finden, da kein "-1" in der Grundmenge enthalten ist.

    Man kann also sagen, dass es sich bei der Verknüpfung # "Mischung" zusammen mit der Menge MI = {0, 1} um keine Gruppe, aber um eine Halbgruppe - da Assoziativgesetz - handelt.
     ____________________________________________________________
    In English:
    Theory and theories
    Just as car headlights theories bring light into the darkness of being and the future of the human species. Scientific theories are using a slice of reality, which is known as a model of reality. Where it should go at this point only of the quality of theories, ie it comes to truth in a scientific theory. The contents of the concept of truth is differently. Well-meaning professionals are able to determine truth in conversation. The basic method to arrive at true statements, is the method of logical conclusions.

    Sonntag, 7. März 2010

    Telepathie / telepathy

    Die Begriffe Telepathie oder auch Gedankenübertragung bezeichnen die Übertragung von Informationen zwischen Menschen, ohne dass bekannte Sinnesorgane oder technische Übertragungskanäle benutzt werden. Jemand, dem solche Fähigkeiten zugeschrieben werden, wird als Telepath bezeichnet. Was - nach Meinung von Leuten, die an Telepathie glauben - übermittelt wird, das wechselt: Es handelt sich um Ideen, Namen, Eindrücke, Bilder, Wörter, Stimmungen, Sachverhalte und sonstige Gedanken - dabei kann es durchaus zu Missverständnissen kommen. Der Telepath soll nach diesem Glauben eine Persönlichkeit auch mit seherischen Fähigkeiten sein, dem sich Gegenwärtiges und Zukünftiges offenbart.

    In Diskussionen zu diesem Thema werden meistens Aussagen mit Bestätigung und Verneinung einander gegenüber gestellt und es besteht das Dilemma der Unentscheidbarkeit. Wobei die prinzipielle Möglichkeit von Telepathie durch moderne Technik demonstriert wird, indem ein Probant mit einer Haube voller Sensoren auf dem Kopf ohne Benutzung der Hände einen Flipper-Automaten gedanklich bedient.
    Siehe:
    http://www.abendblatt.de/wirtschaft/article1409313/Neue-Wege-fuer-Medizin-und-Umweltschutz.html

    Allerdings bleibt das Dilemma der Unbeweisbarkeit und hier soll zumindest eine Möglichkeit vorgestellt werden, eine Korrelation zwischen gesendeten Gedanken und empfangenen Botschaften herzustellen. 
    Konzept einer empirischen Untersuchung zur "Telepathie"
    Es soll eine Möglichkeit entwickelt werden mit Hilfe von Diskussionsforen des Internets eine Befragung durchzuführen, die Auskunft darüber gibt, ob eine Korrelation, d.h. Abhängigkeit, von Botschaften eines Mediums als Proband und empfangenen Botschaften von Teilnehmern der Diskussionsforen festgestellt werden kann. Es funktioniert nicht sinnvoll, wenn einfach gefragt wird, was übertragen worden ist, da dann bei bestätigenden Antworten des Versuchsdurchführers keine Objektivität herstellbar ist, ob dieser ehrlich geantwortetet hat - und Vertrauensansprüche in die eine oder andere Richtung gab es bei dieser Thematik genug. Insofern soll die Botschaft bereits als eine von 30 "Sprüchen" sichtbar vorhanden sein und die Nummer dieser Botschaft soll insofern vorhanden sein, dass eine kompliziert aufgebaute Formel existiert, die nur bei Eingabe der richtigen Nummer die offen vorliegende Botschaft ergibt.
    __________________________________________________________
    In English:
    The concepts of telepathy or thought transference describe the transfer of information between people, without having to use well-known sensory or technical transmission channels. Someone to whom are attributed to such capabilities is called a telepath.
    What - in the opinion of people who believe in telepathy is transmitted - that goes: It is about ideas, names, impressions, images, words, moods, situations and other thoughts - yet it may well lead to misunderstandings. The telepath must be in accordance with this belief a person with clairvoyant abilities, which manifests itself present, and future. In discussions on this issue there is the dilemma of undecidability. The theoretical possibility of telepathy is demonstrated by modern technology. Someone plays pinball machine, but he doesn't move hands.

    Concept of an empirical study on the "telepathy"
    There is a possibility to be developed with the help of the Internet discussion forums to carry out an empirical study, which provides information about whether a correlation, ie Dependence of messages of a medium as a volunteer and received messages from participants of the discussion forums can be found.