Physik: Warum das neue Kilogramm schwerer als das alte Kilo ist

Ein Kilogramm ist ein Kilogramm. Eine feste Größe, auf die man sich verlassen kann und die Macht über uns hat. Etwa dann, wenn wir nach ein paar guten Tagen wieder auf die Waage steigen.

Das Kilogramm aller Kilogramms

Das Zentrum dieser Macht liegt seit 129 Jahren in Frankreich in einem Tresor: Es ist ein Stück Metall aus einer Platin-Iridium-Legierung und liegt im Keller unter dem „Bureau international des poids et mesures“, dem Internationalen Büro für Maße und Gewichte, in Sèvres. Das ist das Stamm-Kilogramm, genannt „Le Grand K“. Nach ihm sind alle anderen metrischen Gewichte auf der Welt kalibriert. Das genauere Le Grand K löste die erste Definition des Kilogramms ab. Nach der Französischen Revolution und bei der Einführung des metrischen Systems wurde das Kilogramm als das Gewicht von einem Liter Wasser definiert.

„Le Grand K“ ist schwer gesichert. Es liegt in einem Tresorraum. Drei Schlüssel werden benötigt, um ihn zu öffnen. Der Stahlzylinder ruht dort unter drei Schutzglasglocken, in einer temperatur- und feuchtigkeitskontrollierten Umgebung. Umgeben wird es von sechs offiziellen Kopien – den Témoins oder Zeugen.

Schwund am Standard

Nur etwa alle 40 Jahre wird es herausgenommen, und dann werden an diesem Kilogramm Kopien kalibriert. Und bei diesen seltenen Messungen des Gewichts und seiner Zeugen zeigte sich, dass sich die Massen verändert haben. Die einst identischen Gewichte variieren inzwischen. Le Grand K ist heute auch nicht mehr das, was es einmal war. Le Grand K ist auf Diät und wiegt heute nur „999,99995 Gramm“ – in den letzten 129 Jahren hat es 50 Mikrogramm verloren.

Der letzte Saurier der Phsysik

Daher begann am 16. November eine Generalkonferenz über Maße und Gewichte in Frankreich. Auf der Konferenz wurde eine Änderung der Definition von einem Kilogramm beschlossen. Die Wissenschaft hat sich von „Le Grand K“ abgewendet. Die neue Definition knüpft an der Planck-Konstante an.

Dieser Schritt war überfällig. Von den sieben Basisgrößen des International System of Units (SI) Meter (Länge), Kilogramm (Masse), Sekunde (Zeit), Ampere (Strom), Kelvin (Temperatur), Mol (Stoffmenge) und Candela (Leuchtkraft) war das Kilogramm die letzte Maßeinheit, die mit einem physischen Objekt verbunden ist. Le Grand K ist der Dinosaurier in der Physik. Das Gewicht ist der letzte Überlebende der Welt des 19. Jahrhunderts, einer Physik, so wie Newton sie begründet hat.Stephen Hawking – Das sind seine besten Sprüche

Die Unveränderlichkeit der neuen Definition wird mit einem Nachteil erkauft. Die Anschaulichkeit ist dahin. Le Grand K konnte auch ein Laie verstehen: Es ist ja nur ein Metallgewicht aus einer stabilen Legierung. Doch schon die Planck-Konstante ist mit dem Alltagsverstand nicht zu erfassen. Sie ist ein Phänomen in der Quantenmechanik, das zeigt, wie Masse mit der elektromagnetischen Energie in Beziehung steht. Es die Zahl, die die Frequenz einer Lichtwelle mit der Energie eines Photons in der Welle in Beziehung setzt.

Das Kilogramm für die Ewigkeit

Neben der Genauigkeit gibt es weitere Vorteile. Anders als bisher muss niemand mehr in einen Tresor herabsteigen, um eine Kopie des zentralen Gewichts herzustellen. Da die neuen Gewichte auf physikalischen Konstanten beruhen, können sie an jedem Ort hergestellt und kalibriert werden. Dazu benötigt man eine spezielle Waage, die Kibble-Waage, sie wiegt eine Masse gegen eine Menge an elektromagnetischer Kraft. „Die Waage funktioniert, indem sie einen Strom durch eine Spule in einem starken Magnetfeld leitet, und das erzeugt eine Kraft, und man kann diese Kraft nutzen, um das Gewicht einer Masse auszugleichen“, erläutert Ian Robinson das Prinzip, er arbeitete nach 1976 mit Bryan Kibble an den ersten Waagen dieser Art.

Durch die ewige Planck-Konstante wird auch das Kilogramm konstant. Im Gegensatz zu Le Grand K werden es in 129 Jahren keine 50 Mikrogramm mehr oder weniger sein. Mit der neuen Formel wird das Kilogramm immer ein Kilogramm wiegen. Bis in alle Ewigkeit.

Mobilfunk: 5G – der Streit um den LTE-Nachfolger zeigt Deutschlands Digital-Dilemma

Datenleitungen sind die Straßen des 21. Jahrhunderts. Dabei befördern sie nicht nur unsere Whatsapp-Nachrichten und Instagram-Posts, sondern sind als digitale Shopping-Meile und Frachtstraße auch für die Wirtschaft als Infrastruktur unerlässlich. Trotzdem will die Bundesregierung sie nicht wie das Straßennetz fördern. Ein aktueller Streit zeigt das Dilemma dieser Strategie.

Die Bundesregierung und die Mobilfunk-Provider zoffen sich aktuell darum, unter welchen Bedingungen die neue 5G-Technologie in Deutschland umgesetzt werden soll. Wie schon bei LTE – und davor bei UMTS – will die Regierung den Aufbau des Netzes den Mobilfunk-Betreibern überlassen. Die sollen im Januar um die Nutzung der Frequenzen bei einer Versteigerung bieten. Damit wiederholt die Regierung die Fehler der Vergangenheit. Das Problem: Regierung und Provider haben grundverschiedene Interessen.Telekom News IFA 11.35

Infrastruktur gegen Gewinn

Die Regierung sieht das neue Netz als wichtige Infrastruktur. Vor allem die Industrie wartet auf den neuen Standard. Er verspricht durch eine deutlich größere Bandbreite ein ganz neues Ausmaß an digitaler Automatisierung und ermöglicht zudem erst die flächendeckende Umsetzung neuer Technologien wie dem fahrerlosen Auto. Dazu muss das Netz aber nahezu lückenlos sein.

Die Provider haben aber völlig andere Anreize: Sie wollen mit dem neuen Standard möglichst viel Geld verdienen. Das geht am besten, wenn sie sich auf diejenigen Bereiche konzentrieren, in denen die meisten Menschen leben. Damit fallen aber große Teile Deutschlands aus dem Raster: In den dünn besiedelten ländlichen Regionen ist der Ausbau besonders teuer, bringt wegen der wenigen Kunden aber nahezu kein Geld ein.LTE Nachdreh_9.20

Der Streit um die Abdeckung

Kein Wunder, dass die Provider nun gegen Pläne Sturm liefen, die Versteigerung der Frequenzen mit einer Verpflichtung zur 100-prozentigen Abdeckung zu verbinden. In einem Brandbrief der Provider an Bundeswirtschaftsminister Peter Altmaier (CDU) hieß es, diese  Erwartungshaltung sei „ökonomisch in keiner Weise darstellbar und rechtlich nicht haltbar“. Heute hat die Bundesnetz-Agentur ihre Bedingungen zur Abnahme an den Beirat geschickt. Die Forderung zur Vollabdeckung findet sich darin nicht mehr.

Der Punkt ist auch unter den Regierungsparteien umstritten. Aus dem Kanzleramt gibt es Verständnis für den Widerstand der Provider, der flächendeckende Ausbau sei „unfassbar teuer“, erklärte Kanzleramtschef Helge Brauch (CDU). In der eigenen Partei und beim Koalitionspartner SPD sehen das aber nicht alle so. SPD-Generalsekretär Lars Klingbeil sprach am Donnerstag von einer „politischen Bankrotterklärung“, wenn Braun sich mit einer 5G-Versorgung der Ballungsgebiete zufriedengebe.

Auch Agrarministerin Julia Klöckner (CDU) und Innenminister Horst Seehofer (CSU) forderten 5G für alle. Eine Sprecherin Seehofers sagte, das Ziel müsse eine 100-prozentige Abdeckung sein. Eine Versorgung mit dem Hochgeschwindigkeits-Internet nur für 98 Prozent der Haushalte, wie es bisher die Vorgaben für die 5G-Versteigerung der Bundesnetzagentur vorsehen, bedeute, dass rund 15 bis 20 Prozent der Fläche nicht damit versorgt würden. „Und das sind naturgemäß ländliche Regionen.“ Klöckner sagte der „Rheinischen Post“: „Es gibt zu viele weiße Flecken auf der Landkarte.“ Life Hacks Handy schneller laden 19.15

5G-Verspargelung

Dass die Umsetzung für flächendeckendes 5G so teuer ist, hat auch technische Gründe. Obwohl die Sendemasten leistungsfähiger sind, haben sie eine geringere Reichweite. Die Folge: Zur Abdeckung derselben Fläche braucht 5G deutlich mehr Sendemasten als LTE. Die Provider sprechen hinter vorgehaltener Hand von einer „Verspargelung“ der Landschaft. Und: Die Masten müssten zur Nutzung ihres vollen Potenzials mit Glasfaserleitungen angeschlossen werden. Auch in diesem Bereich hinkt Deutschland hinterher.

Die Regierung steht also vor einem Dilemma: Sie will die flächendeckende Infrastruktur, die Kosten sollen aber die Provider übernehmen. Zudem schafft sie mit den hohen Kosten der Versteigerung Anreize, die Kosten an die Kunden weiterzugeben – und das schnelle Internet zum teuren Vergnügen werden zu lassen. Das von den Providern gewünschte Flickennetz kann sie aber auch nicht wollen. Schließlich würden dadurch ganze Landstriche noch weiter nach hinten fallen. Und auch Pläne zu selbstfahrenden Autos dürften schnell platzen – sie könnten schließlich auf dem Land gar nicht fahren.Handytarif Vergleich So sparen Sie Geld beim Handyvertrag 6.17

Wie geht es weiter?

Alternativen dürften aber aus Kostengründen ausfallen: Statt die Frequenzen zu versteigern, könnte die Regierung das Geld selbst investieren und dann die Netze vermieten. Dafür müssten aber erst einmal hohe Summen an Steuergelden investiert werden. Einen interessanten Vorschlag machte auch Tech-Blogger Sascha Lobo. Er empfiehlt eine negative Versteigerung, in der die Regierung zu jeder investierten Euro-Milliarde noch zwei dazu gibt.

Die aktuelle Lösung hebt das Dilemma zumindest nicht auf. Die Bundesnetzagentur verpflichtet die Provider in ihrem nun vorgelegten Regelwerk nur, bis 2024 sämtliche Bundes- und Landstraßen sowie die Zugstrecken mit Hochgeschwindigkeitsnetzen zu versorgen. Dabei wird aber nicht der 5G-Standard eingefordert, sondern nur Mindestgeschwindigkeiten von 100 MBit/s auf Autobahnen, Bundesstraßen und ICE-Strecken, sowie 50 Mbit/s auf regionalen Zugstrecken und kleineren Straßen festgelegt.

Damit werden die Provider gleichzeitig stärker als bisher in die Pflicht genommen, die Maximalforderung Vollabdeckung bleibt aber aus. Eine wirklich befriedigende Lösung ist das für niemanden.

Mit Material der DPA

Wlan Tricks Warentest_17.25

Um rund 18 Prozent: «Krypto-Kater»: Bitcoin-Flaute lässt Aktie von Nvidia fallen

Das Ende des Bitcoin-Booms schlägt auf Geschäft und Aktienkurs des Grafikkarten-Spezialisten Nvidia durch. Die Aktie fiel im vorbörslichen Handel zeitweise um rund 18 Prozent, nachdem Nvidia die Anleger mit den jüngsten Quartalszahlen und dem Ausblick enttäuscht hatte.

Die Produktion der Digitalwährung Bitcoin erfordert massive Computer-Ressourcen – und Grafik-Karten sind optimal dafür. Auf dem Höhepunkt des Bitcoin-Booms führte das zu Engpässen bei einigen Nvidia-Karten und Preissteigerungen.

Doch in diesem Jahr verlor der Bitcoin über zwei Drittel seines Werts – und das machte auch die Erzeugung der Digitalwährung weniger attraktiv. Nvidia habe sich in dieser Situation verschätzt, sagte Firmenchef Jensen Huang nach Vorlage der Quartalszahlen. «Der Krypto-Kater dauerte länger als wir erwarten hatten», räumte er ein. So seien die Preise nicht so schnell gesunken und entsprechend auch die Nachfrage langsamer angesprungen als gedacht. Jetzt erwarte er aber eine Normalisierung.

Es war vor allem die Umsatzprognose für das laufende Quartal, die die Wall Street schockierte. Nvidia stellte Erlöse von rund 2,7 Milliarden Dollar in Aussicht – Analysten waren eher von 3,4 Milliarden ausgegangen. Und im Vorjahresquartal hatte Nvidia noch gut 2,9 Milliarden Dollar Umsatz gemacht.

Im Ende Oktober abgeschlossenen dritten Geschäftsquartal steigerte Nvidia unterdessen die Erlöse um 21 Prozent auf knapp 3,2 Milliarden Dollar und machte 1,2 Milliarden Dollar Gewinn – rund 47 Prozent mehr als ein Jahr zuvor.

Staatsmedien: Unter den Augen Kim Jong Uns: Nordkorea testet erfolgreich neue "taktische Waffe"

Zum ersten Mal seit dem Gipfeltreffen mit Donald Trump war Nordkoreas Machthaber Kim Jong Un bei einem Waffentest dabei. Es soll sich um eine „taktische Waffe“ handeln. In Südkorea wollte man die Nachricht zunächst nicht kommentieren.