SCAN - System zur parallelen Verarbeitung von Mustern

Vorstellungen von Programmen, welche mit Lazarus erstellt wurden.
SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von SYSJM »

Hallo Pascal-/Lazarus-Freunde,
"Neuronale Netze" sind bereits allgegenwärtig, aber sie repräsentieren nur einen Teil der Funktionsweise eines Gehirns in der belebten Natur. Ein anderer Teil speziell des Stammhirns stellt die (parallele) Behandlung von "Nachbarschaften" dar, wie meine Person behauptet. Um dies zu prüfen, wurde ein neuer Ansatz mit Programmiersprache nebst Entwicklungssystem, "SCAN" genannt, entwickelt, der Kommandos auf benachbarten Elementen eines 2-/3-dim. Arrays ausführen kann. Dazu muss man sich einen "üblichen" Prozessor p_r_o Speicherelement/Pixel vorstellen, der um "Nachbarschafts-Betrachtungen" erweitert ist. Damit kann per Algorithmus und dadurch gewonnenen vorliegenden Simulationsergebnissen b_e_w_i_e_s_e_n werden, dass (z.B.) nicht nur Kanten sondern auch F_l_ä_c_h_e_n von Bildern p_a_r_a_l_l_e_l ermittelt werden können, indem jeweils das gleiche Kommando auf allen Prozessoren zur gleichen Zeit ausgeführt wird. Das hier vorliegende System ist allerdings "nur" ein S_i_m_u_l_a_t_i_o_n_s -System für solche SCAN-Prozessor-Arrays.

Bisher gibt es eine solche Hardware nicht und meine Bemühungen, Personen zu finden, die sich bzgl. Prozessor-Entwicklung auskennen und bereit wären, einen Prototypen mit mir zu erstellen, sind bisher gescheitert. Aber vielleicht finden sich solche "Spezialisten" zur Prototyp-Entwicklung ja doch noch. Für "Schlaumeier": Eine Parallelisierung der SCAN-Kommandos mit Hilfe von GPGPU-Prozessoren ist (zumindest zur Zeit) n_i_c_h_t möglich bzw. bringt (fast) nichts.

Solche SCAN-Prozessor-Arrays könnten die nächste Stufe der Prozessor-Entwicklung darstellen, z.B. um
- in der Raketen-Technologie den Sauerstoff in der unteren Atmosphäre statt reinem Sauerstoff zu verwenden (Rand-Topologie des aufgespannten 2-dim. Feldes ist ein Zylinder von rechts nach links: eine Z_y_l_i_n_d_e_r -Oberfläche), falls man hunderte/tausende von "kleinen" Lufteinlassventilen verwendet, die von einem SCAN-Prozessor-Array gesteuert werden, das Informationen aus der Brennkammer erhält,
- in der chemischen Industrie bzw. der Medizin ("tissue engineering") chemische Prozesse zu regulieren (Rand-Topologie: Zylinder von rechts nach links, Faltung oben und unten: eine R_e_a_k_t_o_r -Oberfläche),
- im Fusionsreaktor ITER die Magnetfeld-Erzeugung zu steuern (Rand-Topologie: Zylinder von rechts nach links und von unten nach oben: eine T_o_r_u_s -Oberfläche)
- natürlich jedwede Ermittlung von Kanten und Flächen in Bildern und damit Objekt-Erkennungen durchzuführen (R_e_c_h_t_e_c_k -Oberfläche),
und das und vieles mehr durch parallele Nachbarschaftsbetrachtungen.

Für "Bildverarbeiter": Beim bisherigen Ansatz wird mit dem mathematischen Konstrukt der "morphologischen Struktur" gearbeitet, das sich für eine "unvorbelastete" Person als ein Modell darstellt, das Phänomene dieses Gebiets "um drei Ecken herum" erklärt. Demgegenüber wurde in SCAN eine völlig neue d_i_r_e_k_t_e Sichtweise gewählt. Ausserdem wurde der "morphologischen Struktur"-Ansatz ursprünglich n_i_c_h_t für die Bildverarbeitung entwickelt, weshalb es nicht überrascht, dass dieser "ausgereizt" ist und wichtige in SCAN enthaltene Elemente darin nicht berücksichtigt werden/werden konnten.
Weiter kann bisher "nur" mit Unterprogramm-Bibliotheken gearbeitet werden, d.h. der Anwender muss Übergabeparameter so lange "modifizieren", bis er mehr oder weniger zum gewünschten Ergebnis kommt. In SCAN dagegen kann jeder kleinste Schritt nachvollzogen und geprüft werden, SCAN beinhaltet eine Musterverarbeitungs-Programmiersprache, die von bestehenden (CPU-)Programmiersprachen aufgerufen und gesteuert werden kann (in Entwicklung).

Das vorliegende System ist bzgl. der Batch-Verarbeitung (fast) vollständig, bzgl. des Entwicklungssystems aber noch "in Entstehung", was bei >100 Dialogmasken, z.Zt. ca. 420.000 lines of code und 1 Entwickler zu erwarten ist. Ich bitte daher bzgl. des Entwicklungssystems um "Nachsicht", dass hierfür nur eine Windows-EXE-Datei ("scandev.exe") mitgeliefert wird, die noch fehlerhaft, mit Testausgaben und bzgl. des Maskensystems unvollständig ist (auch bestehende Masken sind noch auf das neueste Lazarus umzustellen), aber mit kleiner "Tour"-Beschreibung ("scandev.txt").

Ich habe bisher zwischen CODING und SCAN gemäß jeweils anstehender Perspektiven gewechselt, aber beide Projekte sind sehr aufwendig. Ohne einen SCAN-Prozessor-Array-Prototypen aber werde ich die weitere SCAN-Entwicklung nur "sehr gemächlich" angehen. Denn ohne solche Hardware lassen sich die Geschwindigkeitsvorteile der SCAN-Parallelisierung zur Zeit nicht umsetzen, womit der SCAN-Ansatz - zunächst - nur eine "abstrakte Möglichkeit" bleibt. Ich bitte daher um Verständnis.

Bevor man sich mit SCAN-Programmen beschäftigt, sollte man im beiliegenden SCAN-Einführungs-Handbuch (150 Seiten) Abschnitt 1 vollständig lesen und Beispiele und Tests in Abschnitt 5 durchgesehen und (ansatzweise) verstanden haben. Die Abschnitte 2 und 3 können dabei situationsgemäß gelesen werden. Dem Handbuch liegen ca. 340 Dateien inkl. Windows-SCAN-Modul ("Scan.exe") und Batch-Datei ("Scan9.bat") bei, anhand derer die Tests in Abschnitt 5 durchgeführt werden können. Die Test-Ergebnisse ("*.out"-Dateien) sind hier beigelegt, das Handbuch ist nebst Dateien auch in Englisch vorhanden, wobei in diesen Texten bis auf Ausnahmen "nur" auf die Batch-Version von SCAN Bezug genommen wird.

Abschließend möchte ich darum bitten, von unsachlichen, sarkastischen, usw. Kommentaren oder gar Beschimpfungen Abstand zu nehmen (siehe CODING). Das hier Gezeigte ist alles andere als "einfach", auch wenn es zunächst so aussieht. Speziell die PPU-Befehle können sehr "komplex" ausfallen, da sie für alle "Eventualitäten" ausgelegt sind.

Die ZIP-Datei-Inhalte sind in "ScanBat.txt" (aus "SCAN-Sources-Text.zip") angegeben.

Statt Dateianhänge hier der Link auf "OneDrive" zu den 3 Dateianhängen als "Scan"(22,8 MB):
"https://1drv.ms/u/s!Ar12T-s2McH3cXLTZge ... U?e=5gzSdo"

Viele Spaß und viele Grüße aus Darmstadt
Jürgen (SYSJM)

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von SYSJM »

Hallo alle zusammen,
manch einer hat sicher gedacht, was ist das denn für eine "exotische" Anwendung, die der hier vorgestellt hat.

Ganz so liegt die Sache nicht. Gegebenenfalls könnte mit dem vorliegenden Ansatz und einem geeigneten SCAN-Prozessor-Array das ITER-Projekt voran gebracht werden (bei ca. 200 Millionen Grad heißen Teilchen geht es nämlich um extreme Geschwindigkeit!), um mit solchen Fusionsreaktoren als "Energie-Lieferanten" ggf. massiv CO2 aus der Atmosphäre in den Untergrund zu "verfrachten". Darin sehe ich mittlerweile eine der wenigen technischen Möglichkeiten, das Erderwärmungsproblem vielleicht doch noch "in den Griff" zu bekommen. Denn eines dürfte klar sein, selbst wenn wir (alle Erdenbewohner) sofort damit aufhören würden, CO2 in die Atmosphäre "zu pusten", was nach den neuesten Äußerungen von China (neue Kohlekraftwerke!) und Australien eine "dicke" Illusion sein dürfte, ist dort bereits "zu viel" CO2 vorhanden(!). Wenn man "das Kippen" des Planeten verhindern will, dann muss das CO2 in der Atmosphäre "schleunigst" reduziert werden - sonst gnade uns Gott (!, auch wenn ich persönlich für diesen Herrn nicht allzu viel übrig habe).

Und nach den Testergebnissen, die hier vorliegen, könnte eine SCAN-Prozessor-Hardware mit geeignetem SCAN-Programm, was hier auch (ansatzweise) vorliegt (Beispiel 10), z.B. überlappende Flächen auf der gesamten Oberfläche von z.B. einem Torus 10.000-mal und schneller p_r_o S_e_k_u_n_d_e ermitteln. Das bekommt ihr mit keinem Quantenrechner hin, die in meinen Augen eh z.Zt. völlig überschätzt werden!

Wie zu sehen, wird zunächst eine "geeignete" Hardware benötigt, sonst nützt das "hätte, hätte, Fahrradkette"-Gerede leider gar nichts. Und dann müssen natürlich noch "geeignete" SCAN-Algorithmen für den jeweiligen Anwendungsfall entwickelt werden. Also, viel zu tun, packen wir's an - oder lassen wir's liegen?

Nochmals Grüße aus Darmstadt
Jürgen (SYSJM)

Benutzeravatar
kupferstecher
Beiträge: 416
Registriert: Do 17. Nov 2016, 11:52

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von kupferstecher »

Hallo Jürgen,

in deine Dokumentation habe ich grad mal reingeschaut. Mit Mustererkennung hatte ich bisher nichts zu tun, viel verstehen tue ich daher nicht.

Vielleicht kannst du aber noch erklären, was dein Parallelprozessor können muss und wie die Daten-/Prozessoraufteilung erfolgt, wie die einzelnen Prozessoren mit Programmcode gefüttert werden. Schließlich wird man nicht für 1000 Prozessoren einzelnen Code schreiben wollen. Wenn alle den gleichen Code abarbeiten, reicht für solche Anwendungen vielleicht auch ein Vektorprozessor? Andererseits gibt es im Supercomputingbereich ja massive Parallelisierung, ich nehme an du hast dich da schon umgeschaut? Also was muss dein Prozessor können, das bestehende Konzepte nicht implementiert haben?

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von SYSJM »

zu kupferstecher, 11. Aug 2021, 14:04:

zunächst gehe ich weiterhin davon aus, dass es einen "Zentralrechner" gibt. Von diesem aus würde die Hardware-Einheit "SCAN-Prozessor-Array" mit SCAN-Kommandos "versorgt". Der Clou bei einem SCAN-Prozessor-Array ist u.a., dass Prozessoren und der von diesen bediente Hauptspeicher eine Einheit bilden. D.h. - im 2-dim. Fall - gibt es mehrere 2-dim. Hauptspeicher-Arrays, diese werden jeweils als Musterraum (kurz: MR) bezeichnet, die man sich übereinander "gestapelt" vorstellen kann, und für jeden Koordinatenpunkt (x,y) in allen Hauptspeicher-Arrays ist s_c_h_r_e_i_b_e_n_d genau ein Prozessor zuständig. Lesend können diese Prozessoren auf alle Punkte innerhalb von Quadraten mit entsprechender (ungerader) Kantenlänge k um ihren Koordinatenpunkt herum (und natürlich auf diesen Punkt selbst) zugreifen. Wie groß k für eine konkrete Hardware max. gewählt werden sollte, müsste beim Hardware-Design geklärt werden, aber max. k >=9 ist sicher sinnvoll. Alle solche Prozessoren bekommen zur selben Zeit das selbe SCAN-Kommando, das ihnen vom "Zentralrechner" zur Verfügung gestellt wird. Der entscheidende Unterschied zu z.B. Vektorprozessoren ist, dass letztere keine Umgebungsbetrachtungen dergestalt vornehmen können, dass für konkrete quadratische Umgebungen in den SCAN-Hauptspeicher-Arrays von jedem einzelnen SCAN-Prozessor z.B. Minima und/oder Maxima berechnet werden müssen und für solcherart ordnungstheoretische Operatoren sind letztere n_i_c_h_t ausgelegt(!). Weiter müssen - bei einem k=9-Quadrat - 81 dieser SCAN-Prozessoren "gleichzeitig" auf einen Koordinatenpunkt in einem SCAN-Hauptspeicher-Array lesend zugreifen und für solcherart überlappender Zugriffe sind weder Vektorprozessoren noch GPGPU-Prozessoren optimal ausgelegt(!). Wie das sonst so funktionieren könnte, habe ich im übrigen in den beiliegenden Handbüchern beschrieben. D.h. z.B. das Laden von Daten in ein SCAN-Hauptspeicher-Array kann entweder via CPU-Kommando veranlasst werden (also vom "Zentralrechner" aus), oder wird - wie bei einem Kameraspeicher - von Seiten einer Hardware (wie auch immer geartet) veranlasst.

Allgemein sei hier erwähnt, dass dem Bereich Ordnungstheorie der Mathematik bisher viel zu wenig Beachtung geschenkt wurde (in letzter Zeit spielt sie in der "String"-Theorie der Physiker 'mal eine Rolle). Das liegt zum Teil auch an den Mathematikern selbst, die sehr oft mit "unendlichen" Ordnungen "hantieren", satt mit "endlichen" Ordnungen, die einzig Praxisrelevanz haben bzw. haben könnten. Daher ist es nicht verwunderlich, dass bestehende Prozessor-Konzepte "auf diesem Auge fast blind" sind(!).

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von SYSJM »

Hallo nochmal,
einen kurzen Hinweis zur Sicherheit der Scan-Dateien bzgl. Viren usw., hier von "Kaspersky Internet Security" findet ihr unter "Kaspersky-Untersuchung_Scan.jpg" hier:
https://1drv.ms/u/s!Ar12T-s2McH3e29RCSH ... k?e=0HKEIz
Leider wird kein konkretes Datum und keine konkrete Uhrzeit angegeben, aber ich hoffe, dass damit die Schadsoftware-Freiheit der zur Verfügung gestellten Scan-Dateien, speziell der EXE-Dateien, für "kritische Geister" hinreichend gut dokumentiert ist.
Jürgen(SYSJM)

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

an alle "Weltraum-Freaks"

Beitrag von SYSJM »

Nochmals an alle Weltraum-Begeisterten,
nur um die Bedeutung einer SCAN-Prozessor-Array-Entwicklung nochmals zu unterstreichen, möchte ich hier im Zusammenhang mit dem Fusionsreaktor Iter die "weitreichende Tragkraft" erneut versuchen zu verdeutlichen.

Bei Raketenantrieben wird viel von "magnetoplasmadynamischen Antrieben" (auch MPD-Antriebe oder engl. MPD thruster) "geschwärmt", was im Projekt VASIMR (Variable specific impulse magnetoplasma rocket) auch bereits durch das Unternehmen Ad Astra Rocket (Texas) erprobt wird. Im Link "https://www.n-tv.de/wissen/In-nur-39-Ta ... 58961.html" kann man nachlesen, dass dafür "eine ausreichend starke Energiequelle" benötigt wird. Und weiter: "Allerdings gibt es derart leistungsfähige Kraftwerke für den Einsatz im Weltraum bisher noch nicht - und sie sind auch nicht in Sicht." und "...müsste ein Kraftwerk von fast 8000 Tonnen Gewicht ins All befördert werden", wobei hier ein Atomkraftwerk gemeint ist.

Wäre also ein funktionsfähiger Fusionsreaktor verfügbar, dann könnte man selbigen vielleicht - auch durch den Einsatz eines SCAN-Prozessor-Arrays - so "verkleinern", dass er für genau diese Plasma-Erzeugungs- und -Beschleunigungsenergie eingesetzt werden könnte. Und damit wäre ein Plasma-Antrieb für Raketen überhaupt erst praktisch möglich!

Zur Beschleunigung und Verfeinerung der Reaktion bei der Einschließung des Plasmas im Torus des Fusionsreaktors "Iter" (und auch anderer Fusionsreaktoren) würde sich ein SCAN-Prozessor-Array eignen, bei dem die Musterräume als Torus-Oberfläche vorliegen. Jedem Musterpunkt würden nun Temperatur-, Druck-, Feldstärken und/oder weitere physikalische Größen zugeordnet, die in mehreren Daten-MRs durch Auslesen der jeweiligen Sensoren "permanent" ermittelt werden. Die Verarbeitung und Berechnung würde pro MR-Punkt parallel geschehen unter Berücksichtigung eines Skalierungs-MR, mit dessen Hilfe eine Punkt-Gewichtung - Punkte im Innenbereich der Torus-Oberfläche liegen dichter, solche im Außenbereich liegen weiter auseinander - vorgenommen wird, und zu einem Feldstärken-Änderungs-MR oder ähnlichem führen, der zur entsprechenden Steuerung der Magnetspulen verwendet werden könnte.

Die Bedeutung einer "parallelen Datenverarbeitung" kann also gar nicht hoch genug angesetzt werden, um zukünftig Möglichkeiten zu eröffnen, die ohne eine solch "extrem schnelle" Verarbeitung schlicht unmöglich wären.

Und ich möchte hier auch betonen, dass das in der belebten Natur bereits seit Jahrmillionen "verstanden" und umgesetzt wird. Vielleicht sollten wird uns diese Möglichkeiten jetzt technisch auch erschließen.

Grüße aus Darmstadt
Jürgen (SYSJM)

Benutzeravatar
Winni
Beiträge: 1577
Registriert: Mo 2. Mär 2009, 16:45
OS, Lazarus, FPC: Laz2.2.2, fpc 3.2.2
CPU-Target: 64Bit
Wohnort: Fast Dänemark

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von Winni »

Hallo!

Ich bin ja nun wirklich kein Technikfeind, aber Iter ist nunmal ein größenwahnsinniges Konzept.

Aber Iter hat immerhin eine neue Konstante hervorgebracht:

Geschätzte Inbetriebnahme: In 15 Jahren.
Gültig für alle Daten dieses Jahrtausends

Winni

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von SYSJM »

zu Winni » 15. Aug 2021, 18:04:
da bleibt die Frage, weshalb erst in 15 Jahren? Eigentlich ganz einfach, weil man es (noch) nicht schafft, die ca. 200 Millionen Grad heißen Plasma-Teilchen, die auf Grund ihrer Temperatur "extrem schnell" sind, "ausreichend lange" von den Gefäßwänden fern zu halten! Und genau da könnte vielleicht ein SCAN-Prozessor-Array helfen, - wenn man eine solche Hardware dann erst einmal hätte(!).
Also, kennst Du Hardware-Entwickler, die mit mir ein Pilot-Array entwickeln könnten und auch wollen? Ich bin ganz Ohr.
Das könnte nicht nur im genannten Fall von "größerer Bedeutung" sein.

Benutzeravatar
Winni
Beiträge: 1577
Registriert: Mo 2. Mär 2009, 16:45
OS, Lazarus, FPC: Laz2.2.2, fpc 3.2.2
CPU-Target: 64Bit
Wohnort: Fast Dänemark

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von Winni »

Hi!

Nee, so etwas wird nicht funktionieren in einem multinationalen Unternehmen, das die Forschung künstlich finanziell kurz hält, weil nicht gesagt wird, wieviel Geld wirklich gebraucht wird. Aber die Nationen müssen natürlich dabei sein.

Kennen wir alles von der mit Milliarden € (oder DM) subventionierten Atom-Industrie.

Politiker: "Und ihr Atomkraftwerk is 100% sicher"
Ingenieur: "Natürlich ist mein Atomkraftwerk sicher!"

Beweis 1 : Three Mile Island aka Harrisburg am 28. März 1979
Beweis 2: Tschernobyl am 26. April 1986
Beweis 3: Fukushima Daiichi am 11. März 2011

Und die ungezählten Beinahe-Unfälle die bekannt oder meisten unbekannt gebieben sind.

Natürlich ist Iter ungefährlicher als AKWs. Zumindestens für die Menschen. die dort nicht arbeiten.

Aber es ist wieder Milliardenverschwendung.

Geld welches für Windkraftwerke, Solaranlagen und Gleichstromkabel nach Norwegen fehlt. Und bei anderen sinnvollen Projekten. Grün ist hier ja auch schon wieder fehlgeleitete Propaganda. Da ist ja nix mehr Grünes an den Grünen.

Winni


PS.: Die ist ein Software-Forum. Schon gemerkt?

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von SYSJM »

zu Winni » 15. Aug 2021, 20:37:
Ja, das ist ein Software-Forum. Und anfangs habe ich geschrieben: "Ohne einen SCAN-Prozessor-Array-Prototypen aber werde ich die weitere SCAN-Entwicklung nur "sehr gemächlich" angehen." Und: "Ich bitte daher bzgl. des Entwicklungssystems um "Nachsicht", dass hierfür nur eine Windows-EXE-Datei ("scandev.exe") mitgeliefert wird". Und das meint die Dialog-Anwendung, die in Form von ca. 420.000 lines of code existiert, aber eben noch nicht "fertig" ist. Zu der hast du dich allerdings nicht geäußert.
Außerdem hast du dich auch nicht zur SCAN-Batch-Anwendung geäußert, zu der der Quellcode mitgeliefert wurde. Wenn dir also meine angesprochenen Themen nicht gefallen, dann kannst du dich ja zu den hier vorliegenden Anwendungen äußern, statt auf meine Themen einzusteigen, oder?! Und die Scan-Anwendung erklärt sich auf Grund des Abstraktionsgrades nicht von alleine, weshalb ich versucht habe, einen Bezug zu aktuellen Problemlagen herzustellen. Das ist natürlich z.B. bei einem Spiel viel einfacher, da erklärt sich der Zweck von selbst.
Ich denke, damit ist die Sache geklärt und ich gehe nicht mehr weiter auf deine letzte/weitere Argumentation ein.

Benutzeravatar
Winni
Beiträge: 1577
Registriert: Mo 2. Mär 2009, 16:45
OS, Lazarus, FPC: Laz2.2.2, fpc 3.2.2
CPU-Target: 64Bit
Wohnort: Fast Dänemark

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von Winni »

Hi!

Aus Wikipedia, die normalerweise nur zitieren, wenn es nicht mehr anders geht, also immer die konservative Perspektive betrachten:

https://de.wikipedia.org/wiki/ITER#Finanzierung
----------------------------
Im Mai 2010 teilte die Europäische Kommission mit, dass sich laut einer aktuellen Kostenschätzung ihr Anteil an den Baukosten von ehemals geplanten 2,7 Milliarden Euro auf 7,3 Milliarden Euro verdreifachen wird.[30] Die EU deckelte daraufhin die EURATOM-Mittel bei 6,6 Milliarden Euro. Darüber hinausgehende Kosten will sie durch Umschichtungen aus dem Agrar- und dem Forschungsetat decken.

Während die ITER-Organisation keine Kostenschätzungen abgibt, könnte nach einem aktuellen Worst-Case-Szenario des DOE der US-Anteil auf 6,9 Milliarden US-Dollar steigen, was etwa einer weiteren Verdreifachung der Kosten entsprechen würde
------------------------

Also Status: Das dreifache der projektierten Kosten.
Analyse der DOE: nochmal das Dreifache, also ~ 21 Millarden $
Und nur Naive glauben, dass das das Ende Der Fahnenstange ist.

Das ist der Staatshaushalt von Marokko oder Kroatien.
Wahrlich keine armen Ländern.

Mal über den Topfrand rausgucken - das hilft.

Winni

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

Ideen zu SCAN

Beitrag von SYSJM »

Hallo nochmals,
noch ein kleiner Hinweis. Wer "gute" Ideen ggf. zur Verbesseung der Scan-Operatoren usw. hat, der Scan-Ansatz ist nicht "in Stein gemeiselt". Jeder, der zu einer "wesentlichen" Verbesserung beitragen kann, wird natürlich auch namentlich erwähnt (falls nicht anders gewünscht). Allerdings muss dabei immer berücksichtigt werden, es muss sich via Hardware auch ohne "große Verränkungen" umsetzen lassen, sonst könnte es - nachträglich betrachtet - die Scan-Programm-Laufzeiten eher "verlangsamen" statt "beschleunigen"(!).

Noch ein kurzer Hinweis bzgl. des neuesten Weltklimaberichts (aus "1,5 Grad besänftigen das Wetter nicht", Frankfurter Rundschau, 14.08.21, S.10): "Das 1,5-Grad-Limit kann demnach nur noch eingehalten werden, wenn (...) in knapp 30 Jahren die CO2-Emissionen weltweit bei Null liegen. Bei einem späteren Erreichen der Nullmarke (...) 2070 (...) ist es (...) auch noch möglich, unter zwei Grad Erwärmung zu bleiben. Aber dann müssen (...) jährlich bis zu 10 Milliarden Tonnen CO2 der Atmosphäre entzogen werden - wie, ist noch weitgehend unklar."
2070 wäre ich 114, das werde ich also nicht mehr erleben. Trotzdem habe ich mit dem hier vorliegenden Scan-Ansatz versucht, eine Lösung auch für Fusionsreaktoren zu entwickeln, weil diese Technik mir als die z.Zt. einzige nicht-Karbone (technische!) Möglichkeit (ohne Strahlenmüll-Berge und GAU's wie bei AKW's) erscheint, die Energiemengen aufzubringen, um nicht nur die genannten 10 Milliarden Tonnen CO2 in den Untergrund zu bringe. Und, ich glaube nicht, dass es nach dem "Klima-Selbstmord der Menschheit" noch irgend eine "verbliebene Nase" interessiert, dass man zig Milliarden Euro und mehr "eingespart" hat, weil eine technische Lösung, die vielleicht geholfen hätte, "zu teuer" war(!). Dann ist die Sache erledigt! Es ist halt immer die Frage, wo man "den Tellerrand" definiert, über den man (angeblich) blicken will.

Also, vielleicht kann ja einer der Leserinnen und Leser Personen vermitteln, mit denen man einen SCAN-Prozessor-Array-Piloten erstellen kann. Vielleicht danken es uns die kommenden Generationen, - oder auch nicht, wie man hier ja schon gesehen hat.

Nochmals viel Grüße
Jürgen (SYSJM)

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

SCAN, neuronale Netze und Quantenrechner

Beitrag von SYSJM »

Liebe Pascal- und Lazarus-Freunde,
aus gegebenem Anlass will ich klarstellen, dass der hier gezeigte SCAN-Ansatz sicher n_i_c_h_t "einfach" durch - wie auch immer geartete - neuronale Netze ersetzt werden kann! Ich will die Sache hier nicht unnötig ausbreiten, daher nur kurz: Die Segmentierung von Bildern (Ermittlung von Flächen) kann z.B. nicht(!) durch ein "einfaches" neuronales Netz durchgeführt werden. Wer das behauptet, darf mir ein konkretes neuronales Netz zeigen, mit dem z.B. die Flächenermittlung gemäß SCAN-Beispiel 10, das hier mitgeliefert wurde, vorgenommen werden kann! Das ist nämlich der Unterschied zwischen Mythos und ungeschminkter Realität. Letztere ist leider nicht so "aufregend" wie ersteres, dafür aber sehr viel konkreter. "Superschnelle" Segmentierung mit SCAN-Prozessor-Arrays wird daher auch weiterhin in der Robotik, beim autonomen Fahren usw. neben neuronalen Netzen gebraucht, nicht nur für Fusionsreaktoren.

Bezüglich neuronaler Netze und deren grundlegender Funktionsweise verweise ich auf Alfred Nischwitz/Peter Haberäcker, Masterkurs Computergraphik und Bildverarbeitung, Vieweg Verlag, 1. Aufl. 8/2004, Seite 716 bis 740, Kapitel "Klassifizierung mit neuronalen Netzen".

Weiter möchte ich hier auch betonen, dass die SCAN-Parallelisierung auch nicht durch die neuesten Quantenrechner der Firma IBM (siehe https://www.tagesschau.de/wirtschaft/te ... r-101.html) ersetzt werden kann. Für die in SCAN verwendete Form von Parallelisierung sind Quantenrechner nicht ausgelegt bzw. das sind nicht die Zielalgorithmen, die man mit einem Quantenrechneransatz optimieren möchte. Und es ist zur Zeit nicht absehbar, dass es zukünftig anders sein wird.

Daher, es wäre trotz zukünftiger Entwicklungen in den genannten Bereichen sicher auch weiterhin sehr lohnenswert, für den SCAN-Ansatz Hardware zu "bauen", zunächst als Pilot-Hardware. Über die Bundesanstalt für Sprunginnovation könnten nach Projekt-Neuprüfung auch Mittel zur Verfügung gestellt werden, falls mindestens ein Hardware-Entwickler für das Projekt gefunden werden kann. Also, wo sind die fähigen Hardware-Entwickler, bitte melden :!:
Viele Grüße aus Darmstadt
Jürgen (SYSJM)

Benutzeravatar
kupferstecher
Beiträge: 416
Registriert: Do 17. Nov 2016, 11:52

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von kupferstecher »

Hallo Jürgen,

vorneweg, ich bin (offensichtlich) kein Hardwareentwickler.

Wenn ich deinen Ansatz richtig verstanden habe, müssen alle Prozessoren auf den gleichen Speicher zugreifen. Ich vermute, dass das der Knackpunkt bei der ganzen Geschichte sein wird. Bei Parallelrechnern hat normalerweise jeder Rechenkern seinen eigenen Speicher, der gemeinsame Speicher ist eher langsam. Beim PC sind das die L1- und L2-Caches, von denen jeder Kern seine eigenen hat.
Darüber, wie die Speicheranbindung bei Vektorrechnern funktioniert, konnte ich nichts Belastbares finden. Ich vermute das Laden der Parallelregister geschieht blockweise seriell und damit recht langsam.

D.h. mit normalem RAM würdest du nicht zu Rande kommen. Wenn es sich nur um sehr kleine Datenmengen handelt, bspw. nur 1kB, könnte das wohl in den Prozessorkern integriert werden und es wäre mehr möglich. Vielleicht hast du dir dazu ja schon Gedanken gemacht.

Das nur als Anmerkung.

SYSJM
Beiträge: 31
Registriert: So 24. Nov 2013, 17:45

Re: SCAN - System zur parallelen Verarbeitung von Mustern

Beitrag von SYSJM »

Hallo "Kupferstecher",
das ist ja schon 'mal schön, dass hier überhaupt noch jemand an SCAN Interesse hat.
Also, ich bin zunächst Mathematiker und dann auch Programmierer (seit 1974, damals an einem IBM 370/168 "Großrechner"), aber von Hardware habe ich zunächst nicht die große Ahnung. Ich hatte ja schon beschrieben, dass jeder Prozessor seine jeweilige Hauptspeicherstelle in allen Musterräumen als einziger Prozessor schreibend zugreift und eine quadratische Umgebung (also 3 x 3 oder 5 x 5 oder ... Hauptspeicherstellen) pro Musterraum auch lesend zugreifen können muss. Insofern bilden Prozessoren und die Musterräume(MR) /Hauptspeicherstellen eine Einheit und das Ganze weicht damit erheblich von bisherigen Prozessoren und deren separatem Hauptspeicher ab. Man könnte auch sagen, alle MR-Stellen sollten "schneller" Hauptspeicher sein, aber versuchsweise täte es auch "langsamer" Hauptspeicher. Nur, das eigentliche Hardware-Design ist zunächst das viel größere Problem, wie ich meine, d.h. diese "Verzahnung" von Hauptspeicher und Prozessoren und wie das genau aussehen müsste und auf eine Platine zu bringen wäre, das müsste ein entsprechender "Experte" übernehmen. Davon habe ich keinerlei Ahnung - leider.
Im Übrigen muss ich mich immer wieder dagegen wehren, dass Leute meinen, so etwas würde es doch schon geben. Aber dem ist nicht so, wobei ich mich natürlich nur auf Ansätze beziehen kann, die ich kenne bzw. die allgemein bekannt sind. Aber ohne Hardware-Piloten habe ich überhaupt keine Chance "Gehör" zu finden, denn das habe ich bei den Bildverarbeitern schon jahrelang erfolglos probiert, gemäß dem Motto: "Was der Bauer nicht kennt, isst er nicht."
Aber ich werde es weiter probieren. Vielleicht kommt man ja doch noch zur Erkenntnis, dass alles "Besser" gehen könnte, wenn man die Segmentierung wesentlich beschleunigt.
Jürgen (SYSJM)

Antworten