Fernberührung: Nachweis eines neuen haptischen Sinns

Fernberührung: Nachweis eines neuen haptischen Sinns

Kommentare

9 Minuten

Wissenschaftler berichten über Hinweise auf eine bislang wenig beachtete menschliche Fähigkeit — eine Art „Fernberührung“, die Menschen hilft, Objekte zu erkennen, die unter Sand oder Erde verborgen sind, ohne direkten Kontakt. Dieser Befund, präsentiert auf der IEEE ICDL 2025 und veröffentlicht in IEEE Xplore, verändert unser Verständnis taktiler Wahrnehmung und eröffnet neue Perspektiven für Robotik, Archäologie sowie planetare Erforschung. Die Ergebnisse kombinieren experimentelle Psychophysik, physikalische Modellierung und maschinelles Lernen und zeigen, dass subtile mechanische Signale in granularen Medien als erfassbare Sensorik dienen können.

Entdeckung: ein überraschender siebter Sinn für verborgene Objekte

Üblicherweise sprechen wir von fünf Sinnen, gelegentlich von einem sechsten, wenn Intuition oder ein „sechster Sinn“ erwähnt wird. Forscherinnen und Forscher der Queen Mary University of London schlagen nun eine deutlich abgrenzbare siebte Fähigkeit vor: die Fernberührung. „Diese Entdeckung verändert unser Verständnis sensorischer Wahrnehmung und die Reichweite taktiler Sensibilität bei Lebewesen“, erklärt Elisabetta Versace, Professorin für Psychologie und Leiterin des Ready Minds Lab an der Queen Mary. Die Versuchsreihe deutet darauf hin, dass Menschen in der Lage sind, mit nur der Fingerspitze Objekte zu erkennen und zu identifizieren, die unter einer dünnen Schicht granulärer Materialien — etwa Sand — verborgen liegen, selbst wenn die versteckten Gegenstände niemals direkt berührt werden.

Wie das Experiment funktionierte: Fühlen durch Sand

Protokoll und Leistung

In der ersten Versuchsreihe wurden Probandinnen und Probanden angewiesen, ausschließlich mit der Fingerspitze zu prüfen, ob sich ein Gegenstand unter einer flachen Sandschicht befindet. Erstaunlicherweise identifizierten die Teilnehmenden versteckte Objekte in etwa 71 % der Fälle korrekt, ungeachtet der dazwischenliegenden Körner. Die mittleren Erkennungsdistanzen lagen bei rund 6,9 Zentimetern, wobei die Medianerfolgsdistanz nahe 2,7 Zentimetern lag. Solche Resultate, die auf der internationalen Konferenz IEEE ICDL 2025 vorgestellt wurden, legen nahe, dass sehr kleine mechanische Hinweise, die durch granulare Medien übertragen werden, vom menschlichen Nervensystem wahrgenommen und interpretiert werden können.

Die Versuchsanordnung wurde sorgfältig gestaltet, um alternative Informationsquellen auszuschließen: visuelle Reize wurden eliminiert, akustische Störsignale weitgehend kontrolliert, und Probanden durften keinen direkten Druck auf mögliche Objekte ausüben. Stattdessen registrierten die Forschenden reaktionszeitbezogene Entscheidungen, subjektive Gewissheitsbewertungen und Variationen in der Fingerbewegung. Die Kombination aus objektiven Leistungskennzahlen und subjektiven Angaben stärkt die Zuverlässigkeit der Beobachtungen und reduziert die Wahrscheinlichkeit, dass Ergebnisse auf Zufall oder psychologische Biases zurückzuführen sind.

Physikalische Mechanismen: Wie ist das möglich?

Auf den ersten Blick erscheinen die Signale, die von einem vergrabenen Objekt ausgehen, verschwindend gering. Physikalisch betrachtet stört der Gegenstand benachbarte Körner und erzeugt winzige Verschiebungen und Druckgradienten. Standardmodelle sagen voraus, dass solche Störungen innerhalb einiger Millimeter um den Kontaktpunkt stark abklingen. Durch präzise Messungen und theoretische Modellierung wiesen die Forschenden jedoch nach, dass subtile Verschiebungsmuster sich unter geeigneten Bedingungen weiter durch granulare Netzwerke ausbreiten können — in einigen Fällen über mehrere Zentimeter.

Technisch ergeben sich diese Übertragungsphänomene aus der Verknüpfung lokaler Kontaktkräfte, Reibungskoeffizienten der Körner und strukturellen Ketten aus Partikelkontakten (sogenannte Kraftketten). Kleine Vibrationssignale oder langsame Umverteilungen von Druck lassen in solchen Netzwerken anisotrope Muster entstehen, die an bestimmten Stellen auf der Oberfläche messbar sind. Ein Finger, der über die Sandoberfläche gleitet, registriert so feinste Variationen in Widerstand, mikro-vibrationalen Anregungen und zeitabhängigen Rückstellkräften. Das sensorische System des Menschen — mechanorezeptive Endorgane in der Haut kombiniert mit adaptiven Verarbeitungsnetzwerken im Gehirn — scheint in der Lage zu sein, diese spatio-temporalen Muster zu dekodieren und ihnen Bedeutung zuzuordnen.

In der Praxis heißt das: Die Fingerspitze „liest“ keine Bilder, sondern interpretiert ein mechanisches Signalensemble — eine Art physikalische Signatur — das Hinweise auf Form, Größe oder Materialeigenschaften des verdeckten Gegenstands geben kann. Diese Erkenntnis verbindet Physik, Materialwissenschaften und Neurophysiologie und liefert die Grundlage für neue Hypothesen zur Weiterleitung mechanischer Informationen durch unregelmäßige, heterogene Medien.

Roboterreplikation: Maschinen das „Fühlen aus der Ferne" beibringen

Um die praktische Nutzbarkeit zu prüfen, übertrug das Team das menschliche Experiment auf einen Roboterarm mit taktilen Sensoren. Die Sensorik bestand aus drucksensitiven Arrays und Beschleunigungsmessern an der Kontaktfläche. Die gewonnenen Sensordaten wurden verwendet, um ein Long Short-Term Memory (LSTM)-Netzwerk zu trainieren, das klassifizieren sollte, ob sich ein Objekt unter einer Sandschicht befindet.

Roboter erreichten geringere Genauigkeiten als menschliche Probanden — ungefähr 40 % korrekt — konnten aber vereinzelt Objekte in etwas größeren Distanzen detektieren, bis zu 7,1 Zentimetern in einigen Versuchen. Diese Unterschiede liefern wertvolle Erkenntnisse: Maschinen messen anders, sie sind weniger robust gegenüber Rauschen in der Echtwelt, aber sie erlauben reproduzierbare Tests und systematische Parameterchanges, um Modelle der granularen Signalübertragung zu validieren. Die mechanischen Sensorarrays liefern reichhaltige zeitliche Signaturen, die mit geeigneter Vorverarbeitung und Architekturoptimierung die Leistung deutlich steigern könnten.

Menschliche Daten als Input für KI-Modelle

„Das Interessanteste war der Rückkopplungsprozess zwischen menschlichen und robotischen Experimenten“, erläutert Lorenzo Jamone, Professor für Robotik und Künstliche Intelligenz am University College London. Menschliche Verhaltensdaten verbesserten die Trainingsdatensätze der Roboter, etwa indem sie relevante Zeitfenster, Bewegungsgeschwindigkeiten und typische Sensor-Muster kennzeichneten. Umgekehrt gaben die Abweichungen in der Roboterleistung neue Hinweise auf die Art sensorischer Signale, die menschliche Wahrnehmung verwendet. Diese interdisziplinäre Vorgehensweise — Psychologie, taktile Sensorik und maschinelles Lernen kombiniert — zeigt, wie biologische Wahrnehmung neuartige Sensorsysteme für Maschinen inspirieren kann.

Die Forscher diskutieren verschiedene Optimierungen: hochauflösende taktile Arrays, adaptive Filter zur Unterdrückung von Störsignalen, Transferlernen vom Menschen auf Maschinen, sowie hybride Modelle, die physikalische Vorwissen (z. B. Modelle granularer Festkörpertransmission) mit datengetriebenen Lernverfahren kombinieren. Solche Architekturen könnten die Detektionssicherheit erhöhen und die Reichweite mechanischer Signalinterpretation in realen Einsatzszenarien verbessern.

Von der Archäologie bis zum Mars: mögliche Anwendungen

Die Erkenntnis, dass taktile Hinweise weiter durch granulare Materialien propagieren als zuvor angenommen, eröffnet zahlreiche praktische Anwendungsfelder. Zhangchi Chen, Doktorandin im Advanced Robotics Lab an der Queen Mary, weist darauf hin: „Fernberührung könnte nicht-invasive archäologische Untersuchungen ermöglichen, bei denen empfindliche Artefakte ohne Ausgrabung erkannt werden, oder Landern und Rovern erlauben, unter Sand liegende Strukturen auf planetaren Oberflächen wie dem Mars zu spüren.“

Der potenzielle Nutzen reicht von verbesserten Such- und Rettungsoperationen — etwa das Auffinden von Personen oder Gegenständen unter Trümmern, wenn Sichtverfahren versagen — bis zur Erschließung neuer Instrumente für Umweltüberwachung, Bodenmechanik und Bauwerksdiagnostik. Roboter mit empfindlichen taktilen Arrays und KI-gestützter Auswertung könnten dort operieren, wo menschliche Annäherung gefährlich ist oder optische Systeme durch Trübung, Staub oder Dunkelheit eingeschränkt werden.

  • Archäologie: Auffinden vergrabener Artefakte mit minimaler Störung des Fundorts und reduzierter Ausgrabungsinvasivität.
  • Robotik: Verbesserung der haptischen Sensorik für Greif- und Suchaufgaben, adaptive Manipulation und taktile Explorationsstrategien.
  • Planetare Wissenschaft: Rovern ermöglichen, subsurface Anomalien auf dem Mars oder Eismonden zu detektieren, ohne großflächige Bohrungen.
  • Such- und Rettungseinsätze: Lokalisierung von Objekten oder Überlebenden unter Trümmern in Situationen, in denen visuelle Systeme versagen.

Experteneinschätzung

Dr. Maya Rosenthal, Forscherin für taktile Sensorik in einem NASA-angegliederten Labor, kommentiert: „Diese Arbeit rückt den Tastsinn als aktiven, umweltabhängigen Prozess in den Mittelpunkt. Es geht nicht nur darum, dass Haut Oberflächenstrukturen berührt — vielmehr interpretieren wir die mechanische Sprache der Materialien.“ Für die planetare Robotik könnte das bedeuten, neue energie-effiziente Sensoren zu entwickeln, die Böden und Sandschichten „abhören“, um vergrabene Objekte oder geologische Grenzflächen zu finden. Ihre Einschätzung betont konkrete Entwicklungspfade: miniaturisierte taktile Arrays, gekoppelt mit zeitlichen neuronalen Netzwerken, könnten schwache mechanische Signaturen in verwertbare Informationen umwandeln.

Darüber hinaus hebt sie hervor, dass eine interdisziplinäre Validierung essenziell ist. Materialwissenschaftler, Geophysiker und Neuroforscher sollten zusammenarbeiten, um robuste Kalibrierungen zu entwickeln, Messunsicherheiten zu quantifizieren und die Grenzen des Wahrnehmbaren in verschiedenen granularen Medien systematisch zu kartieren. Solche Kooperationen erhöhen die Chance, die Ergebnisse von Laborsituationen in reale Feldbedingungen zu übertragen.

Was das für Sinnesneurowissenschaft und Technologie bedeutet

Die Idee eines siebten Sinnes — der Fernberührung — ist provozierend, zugleich aber durch messbares Verhalten und physikalische Mechanismen untermauert. Für die Neurowissenschaften weist sie auf die bemerkenswerte Empfindlichkeit des menschlichen Nervensystems gegenüber spatiotemporalen Mustern mechanischer Eingaben hin. Die Fähigkeit, aus schwachen, über granularen Medien ausgebreiteten Signalen relevante Informationen zu extrahieren, legt nahe, dass kortikale Informationsverarbeitungsmechanismen sehr feine zeitliche und räumliche Kodierungen nutzen können.

Für die Technik skizziert die Studie einen praktikablen Fahrplan: Verfeinerte Modelle der granularen Signalübertragung, optimierte taktile Sensordesigns und spezialisierte Lernalgorithmen können die Reichweite des Tastsinns über direkten Kontakt hinaus erweitern. Künftige Forschung wird daran arbeiten, die Übertragungsmodelle zu präzisieren, Sensorarrays zu miniaturisieren und robuste Algorithmen zu entwickeln, die in Feldanwendungen (Archäologie, Rettungsdienste, planetare Missionen) zuverlässig arbeiten.

Ob man dieses Phänomen nun als neuen Sinn oder als Erweiterung der haptischen Wahrnehmung betrachtet — es verschiebt die Grenze dessen, wie Organismen und Maschinen Informationen aus ihrer physischen Umgebung gewinnen können. Stellen Sie sich einen Rover vor, der vorsichtig über entfernten Sand streicht und, ohne zu graben, die Form eines vergrabenen Steins oder die Schichtung eines Bodens erkennt — ein kleiner, aber bedeutsamer Schritt hin zu intelligenteren, subtileren Erkundungsstrategien.

Quelle: smarti

Kommentar hinterlassen

Kommentare