Beschreibung
:
Einleitung: Die SpiNNaker2-Architektur stellt eine neuartige, biologisch inspirierte Superrechner-Architektur dar. Durch seinen Fokus auf Modelle in Gehirngröße und seine Optimierung für eine Reaktionszeit im Millisekundenbereich stellt es das weltweit größte Cloud-System für Echtzeit-KI dar. Die verteilten Verarbeitungselemente arbeiten asynchron, was eine massiv parallele, ereignisbasierte und sparsame Berechnung mit bedarfsbasierter Energieverbrauch ermöglicht. Das SpiNNaker2-System erreicht eine einzigartige Fusion von GPU, CPU, neuromorphen Komponenten und probabilistic Computing. Dadurch ergeben sich in der KI völlig neue Funktionalitäten, wie z.B. die Kombination von symbolischer KI mit Deep Neural Networks und neuromorpher Effizienz. Darüber hinaus lässt sich die Architektur jenseits von KI-Anwendungen auch für Anwendungen wie zufallsbasierte Heuristiken, Monte-Carlo-Probleme, Wirkstoffentwicklung und 5G/6G innetwork computing/taktiles Internet sehr gut einsetzen. Mit der SpiNNcloud Serverplatform können zeit-, rechen- und energieintensive KI-Projekte an unserem Institut, der Medizinischen Fakultät und der Universität Leipzig umgesetzt werden, die mit herkömmlichen Systemen nur unzureichend rentabel sind. Quantenchemische Methoden wie DFT beschreiben molekulare Systeme und ihre Wechselwirkungen präzise, stoßen jedoch bei der Entwicklung groß angelegter Arzneimittel auf Hardwareressourcenbeschränkungen. Um dieses Problem zu lösen entwickeln wir einen Machine-Learning-Ansatz unter Verwendung äquivarianter neuronaler Netzwerke, die mit Ab-initio- Daten trainiert wurden, um effizient vorherzusagen. Wir werden die hochparallele Architektur des SpiNNaker2-Supercomputers nutzen, um die Skalierbarkeit und Effizienz z.B. unserer QSAR-Modelle für das virtuelle Hochdurchsatz-Screening (vHTS) zu verbessern. Der SpiNNaker2-Chip wurde von Grund auf so konzipiert, dass er durch die Integration maßgeschneiderter, energieeffizienter Chip-zu-Chip- Verbindungen (c2c) hochgradig skalierbar ist und uns die Möglichkeit bietet die Datenverteilung der zur Berechnung notwendiger Daten so zu optimieren, dass alle Berechnungen ultra-parallel auf 656.640 Cores durchgeführt werden können. Die Innovationen der SpiNNaker2-Boards (Patente für: Mehrkernprozessor und Verfahren zur dynamischen Einstellung einer Versorgungsspannung und Taktfrequenz, Verfahren zur Erzeugung echter Zufallszahlen in einem Multiprozessorsystem, Datenübertragungsmethoden, On-Chip-Router) werden einen robusten Rahmen für eine zeiteffiziente und skalierbare Arzneimittelentdeckung bieten. Weitere Projekte: Probabilistische Metaheuristiken mit Vorhersage und Lernen für multikriterielle Optimierung Multimodales, multi-agentenbasiertes, unüberwachtes Deep Reinforcement Learning in den Kognitions- und Neurowissenschaften Wissensgraphen für Multimodales Lernen in der Onkologie Funktionelles RNA Design mittels KI in der synthetischen Biologie Optimierung und Simulation drahtloser Kommunikationstechnologien für die Telekommunikation in der Biomedizin Synaptischer Dynamik olfaktorischer Systeme als bionisches Vorbild mit Spikenden Neuronalen Netzen in der Sensortechnik und Zellulären Heterogenität Begründung: Zur Beschleunigung unserer Entwicklung z.B. in der Forschung zur personalisierten Medizin mit Hilfe von künstlichen neuronalen Netzen wird die SpiNNcloud mit SpiNNaker2-Boards benötigt, da ihre Vorzüge zu anderen Systemen die einzige Möglichkeit bieten unsere Projekte in angemessener Zeit umzusetzen und neuartige KI-Algithmen auf Grundlage eines Systems zu entwickeln, welches die Netze in Echtzeit abbilden kann. Der Vorteil des SpiNNaker2-Systems für unsere Forschung liegt in der Energiebilanz, der Arbeit mit rechenintensiven Algorithmen bei gleichzeitigem Durchsatz großer Datenmengen im Bereich der Künstlichen Intelligenz: Energie-Effizienz (Patente DE102017128711A1, WO2018215023A1, US11163352B2,EP3631597A1) : Der Chip minimiert den Stromverbrauch während der Leerlaufzeiten im Vergleich zur Peak Performance. Jedes Prozessorelement arbeitet unabhängig und verfügt über Dynamic Voltage and Frequency Scaling (jedes Prozessorelement (4/Core) 150MHz-300MHz mit 0.50V-0.80V) was einen präzisen, bedarfsgerechten Stromverbrauch gewährleistet Lightweight Network-on-Chip (NoC): Dieses innovative System verteilt Daten effizient über den Chip und ermöglicht so ein einfaches Input/Output-Streaming mit minimaler Latenz Zentralisiertes Routing (Patente CN116057907A, EP4144049Al, GB25944 78A, JP2023531137A, KR20230002947A, US12010033B2) : Ein zentraler SpiNNaker2-Router ermöglicht die selective Weiterleitung von einem sendenden Processing Element (PE) an mehrere Empfänger, was zu einer erheblichen Reduzierung des Traffics im Netzwerk führt Quad-PE Design: Gruppen von vier programmierbaren Processing Elements bilden Quad-PE-Einheiten mit Verbindungen mit extrem niedriger Latenz. Diese Einheiten ermöglichen einen schnellen und effizienten Datenaustausch durch die gemeinsame Nutzung von Informationen Dedizierte KI-Beschleuniger: Jedes Verarbeitungselement ist mit KIspezifischen Beschleunigern ausgestattet, die die Leistung des Chips für fortgeschrittene KI-Aufgaben erhöhen Gehirn-Ähnliches Processing: Spezialisierte Beschleuniger emulieren die Funktionalität von biologisch inspirierten Netzwerken und unterstützen hybride Systeme, die traditionelle KI mit neuronalen Spike-Netzwerken mit dem Ziel kombinieren, die Rechenleistung zu verbessern