Automatische Methode zur Identifizierung der Schadensstelle einer Brückenstruktur basierend auf einem digitalen Bild
Scientific Reports Band 13, Artikelnummer: 12532 (2023) Diesen Artikel zitieren
78 Zugriffe
Details zu den Metriken
Es ist von großem wissenschaftlichen und praktischen Wert, mit wirksamen technischen Mitteln die Bauschäden von Brücken in Echtzeit und über einen langen Zeitraum zu überwachen und zu warnen. Herkömmliche Netzwerkmodelle zur Bilderkennung sind häufig durch das Fehlen von Bildern vor Ort eingeschränkt. Um das Problem der automatischen Erkennung und Parametererfassung in digitalen Bildern von Brückenstrukturen ohne Dateninformationen zu lösen, schlägt dieser Artikel eine automatische Identifizierungsmethode für Schadensbereiche von Brückenstrukturen auf der Grundlage digitaler Bilder vor, mit der effektiv Konturschnitzereien und quantitative Charakterisierungen erreicht werden können von Schadensstellen an Brückenbauwerken. Zunächst werden die digitalen Bildmerkmale des Schadensbereichs des Brückenbauwerks definiert. Durch die vollständige Ausnutzung der Eigenschaft, dass sich der Pixelwert des beschädigten Bereichs offensichtlich von dem des umgebenden Bildes unterscheidet, wird eine Bildvorverarbeitungsmethode für den strukturgeschädigten Bereich vorgeschlagen, die die Qualität des Feldaufnahmebildes effektiv verbessern kann. Anschließend wird eine verbesserte Ostu-Methode vorgeschlagen, um die globalen und lokalen Schwellenwertmerkmale des Bildes organisch zu verschmelzen, um die Konturschnitzerei des beschädigten Bereichs im Oberflächenbild der Brückenstruktur zu erreichen. Es werden der Maßstab der Schadensfläche, der Anteil der Schadensfläche und die Berechnungsregel für die Orientierung der Schadensfläche erstellt. Die Hauptinspektion und die Diagnose charakteristischer Parameter des Schadensbereichs der Brückenstruktur werden durchgeführt. Abschließend werden Tests und Analysen in Kombination mit einem tatsächlichen Projektfall durchgeführt. Die Ergebnisse zeigen, dass die in diesem Artikel vorgeschlagene Methode machbar und stabil ist, was die Genauigkeit der Schadensflächenmessung der aktuellen Brückenstruktur verbessern kann. Die Methode kann mehr Datenunterstützung für die Erkennung und Wartung der Brückenstruktur bereitstellen.
Die Brücke spielt eine sehr wichtige führende Rolle in der nationalen Wirtschaftsentwicklung, die dem Land enorme wirtschaftliche und soziale Vorteile bringen kann. Daher legt das Land großen Wert auf die sichere Nutzung der Brücke1. Aufgrund der Erosion der natürlichen Umwelt, der Alterung von Baumaterialien, der Ermüdungswirkung der Brücke selbst und anderer nachteiliger Faktoren nimmt jedoch zwangsläufig die Widerstandsfähigkeit der Brücke ab, was dazu führen wird, dass die Widerstandsfähigkeit gegen Naturkatastrophen und sogar gegen Naturkatastrophen abnimmt normale Umgebung. Im Extremfall kann es zu katastrophalen Unfällen kommen2. Die Brückenkonstruktion ist ein wichtiger Teil des Infrastrukturbaus eines Landes. Bridge ermöglicht eine häufige Kommunikation zwischen verschiedenen Regionen. Unter dem Einfluss mehrerer Umweltfaktoren treten jedoch mit zunehmender Nutzungsdauer an der Brückenkonstruktion unterschiedliche Ausmaße struktureller Schäden auf. Die Brückenstruktur unterscheidet sich von den allgemeinen öffentlichen Gebäuden. Wenn die Brücke einstürzt oder die Sicherheit bei der Nutzung mangelt, wird dies unserem Land großen Schaden zufügen und den Menschen enorme Verluste bescheren. Daher muss die Brückenstruktur einen hohen Sicherheitszustand aufrechterhalten, und die Wartungshäufigkeit ist auch höher als im Allgemeinen öffentliche Gebäude3. Um die Anwendbarkeit, Sicherheit und Haltbarkeit der Brücke im normalen Betriebszustand zu gewährleisten, ist es notwendig, wirksame technische Mittel einzusetzen, um eine Echtzeit- und Langzeitüberwachung und Frühwarnung für strukturelle Schäden an der Brücke durchzuführen und so entsprechende Maßnahmen zu ergreifen wissenschaftliche Grundlage für die Sicherheitsbewertung von Brückenkonstruktionen4,5,6.
Mit der Fertigstellung vieler Schnellstraßen wird das Brückenbauwerk immer größer. Der Einsatz von Viadukten, durchgehenden Trägerbrücken und durchgehenden starren Rahmenbrücken macht die Inspektion der Brücke zu einer zeitaufwändigen und mühsamen Arbeit. Bei der Instandhaltung von Betonbrücken ist die Schadensstellenerkennung einer der wichtigen Inspektions- und Diagnoseschritte für Brückenbauwerke. Normalerweise können Risse in der Brückenoberfläche zur Beurteilung der Tragfähigkeit, Wasserdichtigkeit und Lebensdauer von Betonkonstruktionen herangezogen werden. Bei der statischen Biegeprüfung einer Brücke erfolgt die Erkennung von Rissen an der Unterseite des Trägers manuell. Die Erkennung künstlicher Sicht hängt von der Erfahrung und dem Können des Bedieners ab, was zeitaufwändig und wenig sicher ist, sodass es schwierig ist, den Erkennungseffekt objektiv zu bewerten. Die automatische Erkennung des Schadensbereichs im Brückenoberflächenbild ist bei der zerstörungsfreien Prüfung sehr effektiv7. Die regelmäßige Erkennung von Balkenrissen kann auch zur Bewertung der Sicherheit und Zuverlässigkeit von Betonbrückenkonstruktionen und zur Vermeidung von Unfällen genutzt werden. Die herkömmliche manuelle Erkennung ist ineffizient und beeinträchtigt den reibungslosen Fluss des Straßenverkehrs. Es handelt sich um eine zerstörungsfreie, hochpräzise und kostengünstige Erkennungsmethode in Echtzeit, um Krankheiten auf der Bodenplatte des Brückenüberbaus mithilfe von Bildverarbeitungstechnologie zur Analyse der Bilder der Brückenstruktur zu finden. Derzeit gibt es in anderen Bereichen komplette Gerätesätze, die diese Methode oder dieses Prinzip nutzen, diese Geräte werden jedoch meist im Ausland entwickelt und sind teuer. Darüber hinaus bedarf der Algorithmus im Prozess der Krankheitserkennung aufgrund der Vielfalt und Unsicherheit von Brückenkrankheiten noch weiterer Forschung.
Die digitale Bildverarbeitungstechnologie hat ihren Ursprung im menschlichen Sehen und ist eine umfassende Disziplin, die Optik, Elektronik, Fotografie, Computertechnologie und andere Bereiche umfasst8,9,10. Aufgrund des kontinuierlichen Preisverfalls bei Computerausrüstung, der Digitalisierung digitaler Bilder und der zunehmenden Beliebtheit von Anzeigegeräten nutzen in den letzten Jahren immer mehr Bereiche die Methode der Computerbildverarbeitung zur Erkennung, von der traditionellen Fertigungsindustrie bis hin zum Außendienst Mikroelektronischer integrierter Chip. Dabei handelt es sich um die Anwendung von Computergrafik im Bereich der fortgeschrittenen Produktion, von der Messung der Ebenheit und Größe von Produkten bis hin zur Erkennung fehlerhafter Informationen wie Produktfehler und Risse. Die Rolle der digitalen Bildverarbeitungstechnologie in der Volkswirtschaft wird immer offensichtlicher. Aus der Perspektive der Entwicklung können wir sehen, dass die digitale Bildverarbeitungstechnologie in der zukünftigen Entwicklung eine immer wichtigere Rolle spielen wird. Mit der Entwicklung der Bilderfassungs- und Erkennungstechnologie wird die hochauflösende Kamera verwendet, um Fotos des zu erkennenden Brückenbereichs aufzunehmen, und der Bildverarbeitungsalgorithmus wird verwendet, um das Bild zu verarbeiten, um Merkmale wie Risse usw. zu extrahieren. Dies ist eine neue Methode zur automatischen Identifizierung von Brückenschadensbereichen im Biegetest unter statischer Brückenbelastung11. Computer Vision und künstliche Intelligenz haben bei der automatischen Erkennung beschädigter Bereiche erhebliche Fortschritte gemacht, wodurch die Bilderkennungsenergie beschädigter Bereiche verbessert werden kann12,13,14,15. Beim Datentraining können herkömmliche manuelle Eingriffe jedoch leicht die Erkennungseffizienz und -genauigkeit verringern, und es ist erforderlich, die Trainingseffizienz und -genauigkeit von Datenproben zu verbessern. Herkömmliche Bilderkennungsnetzwerkmodelle sind häufig durch das Fehlen von Bildern vor Ort eingeschränkt. Daher verwendet dieser Artikel eine digitale Bildverarbeitungstechnologie auf der Grundlage optischer Messmethoden zur Erfassung, Analyse und Verarbeitung von Erkrankungen der Brückenstruktur und schlägt eine automatische Identifizierungsmethode der Brückenstruktur vor Schadensbereich basierend auf einem digitalen Bild, um eine künstliche Intelligenzmessung des Schadensbereichs der Brückenstruktur zu realisieren.
Im Betriebsprozess der Brücke führen Belastungseffekte, Ermüdungs- und Hohlraumeffekte, Materialalterung und andere Faktoren unweigerlich zu Schäden in einigen Bereichen der Brückenkonstruktion. Wenn Schäden an der Brückenstruktur nicht rechtzeitig erkannt und repariert werden können, wird die Sicherheit der Brückenstruktur ernsthaft beeinträchtigt. Zu den Schadensmerkmalen von Brücken zählen vor allem Risse und Hohlräume. Derzeit ist die digitale Bildmesstechnik das wichtigste technische Mittel zur Ermittlung der Erscheinungsbildschadenseigenschaften von Brückenkonstruktionen. Durch digitale Bilderfassung in Kombination mit Bildverarbeitung sowie Mustererkennungs- und Klassifizierungstechnologie können die Riss- und Hohlraumeigenschaften der Brückenstruktur ermittelt werden. Die künstliche Beobachtung des beschädigten Bereichs einer Brücke hängt normalerweise vom Farbunterschied und der Erfahrung zwischen dem beschädigten Bereich und der Umgebung ab. Aufgrund der begrenzten Aufnahmeumgebung sind die Bilder der Brückenstruktur oft nicht parallel zur Bildebene der Kamera. Zu diesem Zeitpunkt werden die Strukturbilder mit perspektivischer Projektionsverformung erhalten und der Blickwinkel des beschädigten Bereichs muss korrigiert werden. Typische Schadensmerkmale der Brückenstruktur sind in Abb. 1 dargestellt. Bei der anschließenden Analyse und Verarbeitung werden die von der Kamera aufgenommenen Bilder mithilfe der MATLAB- und VC++-Software in Kombination mit der in diesem Dokument beschriebenen Methode digital verarbeitet Bildverarbeitung.
Oberflächenschadenseigenschaften einer typischen Brückenkonstruktion.
Aus den visuellen Merkmalen lässt sich in Abb. 1a das Phänomen erkennen, dass Blöcke um die Zugverbindung der Brückenkonstruktion herumfallen. Durch den Vergleich der Breite der Spannungsfuge lässt sich erkennen, dass die Breite der Spannungsfuge nach oben und unten nicht gleichmäßig ist, was hauptsächlich auf den Aufnahmewinkel und die nicht vertikale Ausrichtung des Erkennungsbereichs der Brückenstruktur zurückzuführen ist. Zwischen Kamera und Brückenkonstruktion besteht ein bestimmter Aufnahmewinkel. Es besteht ein erheblicher Unterschied zwischen dem Pixelwert des Block-Drop-Bereichs und dem des umgebenden Bildes. In Abb. 1b gibt es Risse auf der Oberfläche der Brückenkonstruktion, und die Risse erscheinen normalerweise als kontinuierliche, schmale Schadensbereiche. Es besteht ein erheblicher Unterschied zwischen dem Pixelwert des Rissbereichs und dem des umgebenden Bildes. Der Pixelwert der Rissmitte ist am kleinsten und nimmt von der Rissmitte bis zum Bereich ohne Risse auf beiden Seiten allmählich zu. In Abb. 1c gibt es Hohlräume auf der Oberfläche der Brückenstruktur, bei denen es sich normalerweise um diskontinuierliche kugelförmige Schadensbereiche handelt. Es besteht ein erheblicher Unterschied zwischen dem Pixelwert der Lochfläche und dem des umgebenden Bildes.
Der Schadensbereich im von der Kamera erfassten Bild wird automatisch anhand des Pixelwerts jedes Pixels identifiziert, dessen Wert zwischen 0 und 255 liegt. Die Grauwertverteilung des Bildes in Abb. 1 ist in Abb. 2 dargestellt. Abbildung 2 ist ein Histogramm aus Pixelgrauwert und Grauwertanteil. Die x-Achse in Abb. 2 stellt den Pixel-Grauwert dar. Die y-Achse in Abb. 2 stellt den Grauwertanteil dar. Abbildung 2a entspricht dem Bildmerkmal von Abb. 1a. Abbildung 2b entspricht dem Bildmerkmal von Abb. 1b. Abbildung 2c entspricht den Bildmerkmalen von Abb. 1c. Aufgrund der Differenzeigenschaften der Pixelwerte sind in Abb. 2a) die Grauwerte, die dem Block-Drop-Bild entsprechen, hauptsächlich auf 150–210 konzentriert, und die Grauwerte weisen mehrere Spitzen auf und die Grauwerte sind relativ gestreut. In Abb. 2b ist der Grauwert des Rissbildes hauptsächlich auf 100–130 konzentriert, und es gibt einen einzelnen Spitzenwert im Grauwert, und der Grauwert ist relativ konzentriert. In Abb. 2c konzentriert sich der Grauwert des Lochbilds hauptsächlich auf 130–220. Der Grauwert hat einen einzelnen Peak. Der Grauwert ist relativ streuend.
Graue Verteilung typischer Oberflächenschadenseigenschaften von Brückenkonstruktionen.
Der technische Weg dieser Methode ist in Abb. 3 dargestellt. Das Bild des ursprünglichen Schadensbereichs wird vorverarbeitet und anschließend werden Merkmalsparameter extrahiert. Der wichtigste Teil ist die Bildvorverarbeitungsphase. Die Ergebnisse der Verarbeitung beeinflussen die Erkennungswirkung der gesamten Strukturparameter. Die Bildqualität der Oberfläche einer Brückenkonstruktion hängt von der Bildqualität der Digitalkamera und den Aufnahmebedingungen vor Ort ab. Um die anschließende Bildverarbeitung zu erleichtern, ist es notwendig, den Betrachtungswinkel des Schadensbereichs zu korrigieren, den Schadensmerkmalsbereich zu verbessern und die Kontur des Schadensbereichs entsprechend den Bildeigenschaften des Schadensbereichs der Brückenstruktur zu extrahieren.
Schematische Darstellung der technischen Route.
Die vor Ort fotografierte Ebene des beschädigten Brückenbauwerks verläuft oft nicht parallel zur Bildebene der Kamera. Zu diesem Zeitpunkt wird das Rissbild mit perspektivischer Projektionsverformung erhalten. Der beschädigte Bereich der Brückenstruktur erzeugt eine „nahe breite und weit entfernte“ Verformung, die mit zunehmendem Aufnahmewinkel zunimmt16. Um ein genaues Bild des beschädigten Bereichs der Brückenstruktur zu erhalten, muss die Perspektive des Bildes durch perspektivische Projektionstransformation geändert werden. Nach dem räumlichen Modell digitaler Bilder sind die Koordinaten der Bildpunkte das Ergebnis der perspektivischen Linse in der Bildebene. Das schematische Diagramm der perspektivischen Projektionsverformung ist in Abb. 4 dargestellt.
Schematische Darstellung der perspektivischen Projektionsverformung.
Der Schnittpunkt der Linien ist die Zeilen- und Spaltenposition der Pixel. Die durch perspektivische Projektionsdeformation erhaltenen Pixelkoordinaten sind nicht alle ganze Zahlen. Da im Ergebnisbild leere Bereiche vorhanden sind, müssen die Pixelwerte ganzzahliger Koordinaten durch Interpolationsanpassung berechnet werden. Angenommen, die Koordinaten eines Punktes im Oberflächenbild der Brückenstruktur vor der Korrektur seien (u, v) und die Koordinaten eines Punktes im Bild nach der Korrektur seien (x, y). Nach dem Prinzip der perspektivischen Projektionsbildgebung erfüllen die entsprechenden Koordinaten im Oberflächenbild der Brückenstruktur vor und nach der Transformation die folgende Beziehung17:
Darunter: Die Elemente a1, a2, a4 und a5 sind die linearen Bildtransformationskoeffizienten, die dazu führen können, dass das Bild Rotations-, Scher- und Skalierungsverformungen erzeugt. a3 und a6 sind die Übersetzungskoeffizienten, die dazu führen können, dass das Bild eine Starrkörperverschiebung erzeugt. a7 und a8 sind die Transformationskoeffizienten der perspektivischen Projektion, die die perspektivische Projektionsverformung des Bildes steuern. k ist der variable homogene Koordinatenkoeffizient. k ist eine reelle Zahl ungleich Null. Wenn k = 0 ist, weil der Teiler nicht 0 sein kann, ist (x, y, 0) ein Punkt im Unendlichen, und es gibt keinen zweidimensionalen Punkt, der (x, y, 0) entspricht. Normalerweise kann die Auswahl von k = 1 die Koordinaten auf Tripel (x, y, 1) vereinfachen und die Transformationseffizienz verbessern. Wenn die Koeffizienten a1 ~ a9 gleichzeitig mit einer beliebigen reellen Zahl ungleich Null multipliziert werden, ändert sich die entsprechende Beziehung zwischen (u, v) und (x, y) nicht. Um zu vereinfachen, ohne andere Parameteränderungen zu beeinträchtigen, ist es daher ratsam, a9 = 1 anzunehmen, und die folgenden Gleichungen können erhalten werden17.
Wenn die Bildkoordinaten vor und nach der Transformation von vier nicht kollinearen Punkten bekannt sind, gibt es acht Unbekannte und acht Gleichungen, und die Transformationsmatrixkoeffizienten können gelöst werden. Dann werden die Koordinaten jedes Bildpixels nach der Verformung der perspektivischen Projektion durch die Beziehung (1) gelöst. Durch Ausführen der obigen Verarbeitung an den drei Bildern in Abb. 1 ist die Winkelkorrekturverarbeitung verschiedener Schadensbereiche abgeschlossen. Die Ergebnisse sind in Abb. 5 dargestellt. Aus Abb. 5 ist ersichtlich, dass das Bild nach der Ansicht angezeigt wird Die Winkelkorrektur des Schadensbereichs kann die tatsächlichen Eigenschaften des Schadensbereichs besser widerspiegeln, was für die anschließende automatische Bilderkennung und Parameterextraktion praktisch ist.
Beschädigtes Bereichsbild nach Blickwinkelkorrektur.
Um die anschließende Bildverarbeitung zu erleichtern, sollte eine Bildrauschunterdrückung durchgeführt werden. Basierend auf dem gesammelten Bild kann die Bildentrauschungsverarbeitung durchgeführt werden. Die Bildrauschverarbeitung kann die Bildzerlegungs- und Rekonstruktionsmethode der zweidimensionalen Wavelet-Analyse verwenden, um den Einfluss von Rauschen zu eliminieren. Die Bildrauschunterdrückungstechnologie zielt hauptsächlich darauf ab, Störungen durch Zufallssignale im Prozess der Bilderfassung oder -übertragung zu beseitigen. In der Strahlungsumgebung führt eine große Anzahl von Impulsgeräuschen zu einer Bildverschlechterung. Impulsgeräusche werden auch Salz- und Pfeffergeräusche genannt18. Die Wahrscheinlichkeitsdichtefunktion wird erstellt, um zu beurteilen, ob es sich bei dem Bildmerkmalsbereich um Salz- und Pfefferrauschen handelt. Seine Wahrscheinlichkeitsdichtefunktion wird wie folgt ausgedrückt:
Wenn b > a ist, ist der Grauwert b im Bild hell, also Salzrauschen, und der Grauwert a ist dunkel, also Pfefferrauschen. Angesichts des Bildrauschens im beschädigten Bereich der Brückenstruktur kann der adaptive Medianfilter die Bildkantenmerkmale effektiv beibehalten. Daher wird in diesem Artikel die Methode des adaptiven Medianfilters zur Bildrauschunterdrückung ausgewählt. Das Prinzip der adaptiven Medianfiltermethode besteht darin, die Größe des Filterfensters anhand der Rauschdichte anzupassen und unterschiedliche Verarbeitungsmethoden zur Verarbeitung der Rauschpunkte und Signalpunkte zu verwenden. Anschließend filtern Sie die Rauschpunkte median, um den Grauwert der Signalpunkte unverändert zu lassen. Der Grauwert des Pixels (x, y) im Brückenstrukturbild ist fxy, das aktuelle Arbeitsfenster wird durch Axy dargestellt. Das voreingestellte maximal zulässige Fenster wird durch A dargestellt. Die minimalen, mittleren und maximalen Grauwerte in A sind fmin, fmed bzw. fmax. Die grundlegenden Schritte des Algorithmus sind in Abb. 6 dargestellt.
Flussdiagramm der grundlegenden Schritte des Algorithmus.
Beim adaptiven Medianfilteralgorithmus basieren die Erkennung und Identifizierung von Rauschpunkten auf fmin und fmax. Wenn fmin < fmed < fmax, ist fmed kein Rauschen, daher wird fmin < fxy < fmax verwendet, um zu beurteilen, ob fxy Rauschen ist. Wenn fxy und fmed kein Impulsrauschen sind, erhält fxy Vorrang. Um die durch Oberflächenflecken, allmähliche Unebenheiten und Schlaglöcher im Bild verursachten Störungen zu beseitigen, ist es notwendig, den Bildmerkmalsbereich zu verbessern und die Merkmalsinformationen des beschädigten Bereichs hervorzuheben, nachdem die adaptive Medianfilterung des Bildes abgeschlossen ist. Um die Beeinträchtigung des Bildes durch externe, unwichtige Informationen zu reduzieren, verwendet dieser Artikel die Durchschnittsmethode der Hochfrequenzkomponentenextraktion. Das Referenzbild wird durch Gaußsche Tiefpassfilterung erhalten, und dann werden das Originalbild und das Referenzbild gemittelt, um den Absolutwert des Pixelwerts des Bildbereichs zu erhalten, der die Verbesserung des Bildmerkmalsbereichs realisieren kann. Das teilweise verbesserte Bild ist in Abb. 7 dargestellt.
Teil eines verbesserten Bildes.
Die Segmentierung des beschädigten Brückenbereichs ist ein Prozess der Binarisierung des Oberflächenbilds der Brückenstruktur. Der Prozess der Binarisierung besteht darin, das Bild durch Schwellenwertbildung zu segmentieren. Gemäß den verschiedenen Schwellenwertauswahlmethoden sind die wichtigsten Bildsegmentierungsalgorithmen die Histogramm-Schwellenwertmethode, die iterative Methode und die Otsu-Methode19,20. Aufgrund der Komplexität der Szenenaufnahmeumgebung der Brücke liegt der Grauwert einiger Hintergrundteile des beschädigten Bereichs relativ nahe am Grauwert des Merkmalsbereichs. Die Vielfalt der Merkmale des beschädigten Bereichs und die Grauveränderung erschweren die Arbeit mit der herkömmlichen binären Methode, was dazu führt, dass der Verarbeitungseffekt nicht sehr vernünftig ist und sich leicht auf die nachfolgende Verarbeitung des Bildes des beschädigten Bereichs auswirkt. Daher schlägt dieser Artikel eine verbesserte Otsu-Methode vor, um die Kontur des Bildes von Brückenschadensbereichen zu extrahieren. Mit dem Ziel, den Farbgradientenunterschied zwischen den beschädigten und nicht beschädigten Bereichen der Brücke zu ermitteln, wird eine verbesserte Otsu-Methode vorgeschlagen, bei der die globalen und lokalen Schwellenwertmerkmale des Bildes zusammengeführt werden. Unter der Annahme, dass das Bild des beschädigten Brückenbereichs, das identifiziert und analysiert werden soll, F ist und die Anzahl der Pixel eine M × N-Matrix ist, lauten die konkreten Schritte der Segmentierung des beschädigten Brückenbereichs wie folgt:
Entsprechend den Eigenschaften des Farbgradienten zwischen dem beschädigten Brückenbereich und dem nicht beschädigten Bereich der Brücke wird das Bild F des beschädigten Brückenbereichs nach der Entrauschung einer Gradientenverarbeitung und Binärisierung unterzogen, um das Gradientenbild F1 zu bilden. Basierend auf dem entrauschten Bild f des Brückenschadensbereichs wird die globale Schwellenwertmethode verwendet, um das Bild zu segmentieren, um das anfängliche Binärbild F2 zu erhalten.
Das Bild des beschädigten Brückenbereichs ist in m × n-Bereiche unterteilt, und die Pixelmatrix jedes Elementbereichs beträgt (M/m) × (N/n). Die Otsu-Methode wird zur Bildsegmentierung jedes Elementbereichs verwendet. Die m × n-Elementbilder werden gemäß der Teilungsreihenfolge rekonstruiert, und das rekonstruierte Bild fi wird durch Spleißen gebildet, wobei m der gemeinsame Teiler von M und n der gemeinsame Teiler von N ist. Je größer der Wert von m und n ist Je kleiner jede Flächeneinheit des Brückenschadensflächenbilds ist und desto offensichtlicher ist die Unterscheidung der Brückenschadensfläche. Aber je kleiner jede Flächeneinheit des Brückenschadensflächenbilds ist, desto offensichtlicher ist die Nahtspur des rekonstruierten Bildes, die nicht zu groß sein sollte. Daher ist es notwendig, die geeigneten m und n entsprechend der Größe des Schadensbereichs der Brücke auszuwählen, um sicherzustellen, dass jede Flächeneinheit die Mindestgröße des Schadensbereichs abdecken kann. m und n sind normalerweise 4 oder 8. Das durch die Einheitsfläche fi gebildete rekonstruierte Bild, das die kleinste Größe des beschädigten Bereichs abdecken kann, wird als F3 bezeichnet.
Da im rekonstruierten Bild die lokale Schwellenwertverarbeitung verwendet wird, kann der Schadensbereich der Brücke effektiv von der Umgebung unterschieden werden. Bei der Verarbeitung des beschädigten Bereichs im Fenster führt einzelnes Rauschen zu einer Schwellenwertmutation, die leicht im Hintergrundbereich von Artefakten auftritt. Zu diesem Zeitpunkt wird der Schnittpunkt der Bilder F1, F2 und F3 genommen, um das Segmentierungsbild F4 des beschädigten Brückenbereichs zu erhalten. Das Bild F4 nutzt nicht nur die Gradientendifferenz des Schadensbereichs, sondern kombiniert auch die Vorteile der globalen Schwellenwertmethode und der lokalen Schwellenwertmethode, wodurch der Brückenschadensbereich effektiv unterschieden und die durch den lokalen Schwellenwert verursachten Artefakte entfernt werden können. Das verarbeitete Bild ist in Abb. 8 dargestellt.
Bild des beschädigten Bereichs nach Konturextraktion.
Bei der automatischen Identifizierung des Schadensbereichs einer Brückenstruktur sind der Maßstabsparameter, der Proportionsparameter und der Orientierungsparameter des Schadensbereichs wichtige Inspektions- und Diagnoseparameter der Brückenstruktur. Daher werden in diesem Abschnitt hauptsächlich Analysen und Untersuchungen zur Extraktion von Schadensflächenmaßstäben, -proportionen und -orientierungsparametern durchgeführt.
Bei der Bildaufnahme des Schadensbereichs einer Brückenstruktur ist es notwendig, die Strukturschadensinformationen durch Zoomen direkt zu beobachten. Vor der Kennzeichnung der Strukturschadensinformationen besteht der erste Schritt darin, die Größe des Strukturschadensbilds zu kalibrieren. Die Größe jedes Pixels kann durch die Größenkalibrierung ermittelt werden, so dass die tatsächliche Größe direkt durch die Pixelberechnung bei der späteren Identifizierung von Strukturschäden und Rissmessungen ermittelt werden kann. Bei der Kalibrierung von Strukturschäden wird normalerweise die Größe des Brückenstrukturmerkmals oder ein leicht identifizierbarer Ort für die Kalibrierung ausgewählt, und die Brückenstrukturabmessung Q kann aus den Brückenkonstruktionsdaten ermittelt werden.
Der Abstand zwischen Kamera und Brücke kann bei der Aufnahme des beschädigten Bereichsbildes der Brückenstruktur unterschiedlich sein. Je geringer der Abstand zwischen Kamera und Brücke ist, desto höher ist die Bildqualität des beschädigten Bereichs der Brückenstruktur. Aber in einem gewissen Bereich zwischen Kamera und Bridge können die Bilder gut erkannt werden. Um den unterschiedlichen Einfluss der effektiven Aufnahmeentfernung auf die Berechnung der Schadensbereichsskala zu eliminieren, ist es notwendig, das Bild entsprechend der Entfernung zwischen Kamera und Brücke zu modifizieren. Die Anzahl der Breitenpixel P kann durch Auswahl des Mittelwerts mehrerer verschiedener Positionen mit derselben Designgröße aus dem realen Bild erhalten werden, und die tatsächliche Größe C, die durch jedes Pixel dargestellt wird, kann mit dieser Methode erhalten werden. Unter Berücksichtigung der Skalierungs- und Verformungsvorgänge des Bildes während der tatsächlichen Beobachtung muss der tatsächliche Skalierungsverhältniswert a addiert werden, um den skalierten Pixelgrößenwert Cx zu erhalten.
Bei der Ermittlung der Strukturschadensinformationen müssen wir lediglich die relative Position des Schadensbereichs aus dem Kalibrierungspixel auf dem Bild ermitteln, um den Ort des Strukturschadens in der Brücke zu ermitteln. Zu den Skalenmerkmalen des Schadensbereichs gehören hauptsächlich die maximale durchgehende Länge und der maximale Radius des Schadensbereichs. Um die maximale kontinuierliche Länge des Schadensbereichs zu erhalten, wird die Methode der kontinuierlichen Konturverfolgung zur Berechnung der Länge verwendet. Die Anzahl der Pixel Nl zwischen den beiden am weitesten entfernten Punkten auf der Außenkontur des Schadensbereichs wird statistisch berechnet. Die maximale kontinuierliche Länge des e-ten Bereichs im Schadensbild kann als L(e) ausgedrückt werden.
Um den maximalen Radius des Schadensbereichs zu erhalten, wird die Methode der Suche nach maximalem Kreis verwendet, um den Radius zu suchen. Der zentrale Achsenknoten a der Schadensfläche wird automatisch oder manuell bestimmt. Der Mittelachsenknoten a des Schadensbereichs wird als Mittelpunkt des Kreises genommen und seine Koordinaten werden durch (i, j) ausgedrückt. Erstellen Sie einen Suchkreis mit dem Radius r = 1. Wenn die Bogengrenze des Suchkreises die Pixel im beschädigten Bereich nicht berührt, erhöhen Sie den Radius des Suchkreises, d. h. r = r + Δr. Durch Erhöhen des Radius des Suchkreises, bis die Grenze des Bogens die Pixel des Schadensbereichs berührt, ist der Suchkreis der maximale eingeschriebene Kreis des Schadensbereichs. Wenn die Anzahl der Pixel des maximalen eingeschriebenen Kreisradius des beschädigten Bereichs Nr beträgt, wird der Radius des beschädigten Bereichs durch \(R(i,j)\) ausgedrückt. Der Ausdruck lautet wie folgt:
Um die charakteristischen Parameter des Schadensbereichs zu identifizieren und zu extrahieren, ist es notwendig, jeden Schadensbereich zu markieren, um die Anzahl der Schadensbereiche zu erhalten. Die Anzahl der Schadensbereiche ist definiert als die Anzahl der geschlossenen Bereiche mit einem bestimmten Fangbereich im Oberflächenbild der Brückenstruktur, nachdem die Kontur des Schadensbereichs ausgefüllt wurde, und die Anzahl der Schadensbereiche im Oberflächenbild der Brückenstruktur wird als E aufgezeichnet In diesem Artikel wird der auf äquivalenten Paaren basierende Zahlenmarkierungsalgorithmus verwendet, um die Anzahl der beschädigten Bereiche E zu ermitteln. Auf der Grundlage des herkömmlichen Markierungsalgorithmus mit acht verbundenen Domänen21 wird die Äquivalenzbeziehung zwischen der temporären Markierung und der endgültigen Markierung erstellt und im gespeichert Verknüpfte Listenstruktur zur Verbesserung der Berechnungsgeschwindigkeit und -genauigkeit. Zu den spezifischen Schritten gehören hauptsächlich: Bildvormarkierung, Sortieren der Äquivalenzliste und Bildersetzung.
Zunächst erhält jedes Pixel eine temporäre Beschriftung und die Äquivalenzbeziehung der temporären Beschriftung wird in der Äquivalenztabelle aufgezeichnet. Jedes Pixel im Bild wird durchlaufen. Handelt es sich um das Zielpixel, werden acht Nachbarschaften durchsucht. Die Suche folgt den Regeln links, oben links, oben rechts. Wenn die Nachbarschaft nicht markiert ist, wird ein neues Tag zugewiesen. Andernfalls wird das aktuelle Tag als Nachbarschafts-Tag zugewiesen und die Äquivalenz zwischen den beiden aufgezeichnet. Dann sind alle temporären Marker mit Äquivalenzbeziehung äquivalent zum Minimalwert. Die Schadensbereiche werden in der Reihenfolge natürlicher Zahlen neu beschriftet, um die Äquivalenzbeziehung zwischen den temporären Markern und den endgültigen Markern zu erhalten. Abschließend wird das Bild erneut durchlaufen und die temporäre Markierung wird durch die endgültige Markierung ersetzt. Nach diesen Schritten werden die Schadensbereiche im Bild mit fortlaufenden natürlichen Zahlen von oben nach unten und von links nach rechts markiert. Die natürliche Zahl der Endmarkierung ist die Anzahl der Schadensbereiche E im Brückenoberflächenbild.
Unter der Annahme, dass der Pixelwert des beschädigten Bereichs 0 ist, wird der beschädigte Bereich in Gitter unterteilt. Jede Rasterzeile und jede Rasterspalte enthält mehrere Punkte im Schadbereich. In jeder Spalte ist der Punkt ganz links der linke Grenzpunkt und der Punkt ganz rechts der rechte Grenzpunkt. Wenn es in jeder Gitterlinie nur einen Punkt gibt, ist dies nicht nur der linke Grenzpunkt, sondern auch der rechte Grenzpunkt. Die Schadensfläche ist die Summe der Pixel, die im entsprechenden Schadensflächenraster enthalten sind. Der Schadensbereich ist in n × n Maschen unterteilt. Der Punkt ganz links in jeder Zeile ist P(xi, yij) und der Punkt ganz rechts ist Q(xi, yij'). Dann sind die im beschädigten Bereich enthaltenen Pixel yij-yij' + 1. Daher beträgt die Gesamtfläche \(S(E)\) des beschädigten Bereichs:
Gemäß der Beziehung (7) können bei der Berechnung der Fläche eines beschädigten Bereichs die Pixelkoordinaten der am weitesten links und am weitesten rechts liegenden Seiten in jeder Gitterreihe separat berechnet werden, anstatt jedes Mal die entsprechende Beziehung der am weitesten links und am weitesten links liegenden Punkte zu berücksichtigen. Daher besteht der kritischste Schritt der Flächenberechnung darin, die Art der Grenzpunkte zu bestimmen, die durch den In- und Out-Chain-Code der Kontur bestimmt werden können. Entsprechend der Kontur im Uhrzeigersinn wird die Bestimmungstabelle für die linke und rechte Grenze festgelegt.
Um die Orientierungsmerkmale jedes Punktes im Bild des Schadensbereichs der Brückenstruktur zu erhalten, müssen wir die Gradientenwerte der Pixel in x- und y-Richtung ermitteln. Die Sobel-Operator-Methode wird verwendet, um die Gradientenwerte \(\partial_{x} (u,v)\) und \(\partial_{y} (u,v)\) zu erhalten. Um die Orientierungsinformationen jedes Pixels so genau wie möglich zu machen, werden die lokalen Pixel als Referenz für die Berechnung verwendet. In einem Pixel I(i, j) wird ein rechteckiger Bereich mit der Höhe h und der Breite w als Mittelpunkt ausgewählt und die Durchschnittswerte \(V_{x} (i,j)\) und \(V_{y} ( i,j)\) der Gradientenwerte in x- und y-Richtung des Pixels werden berechnet.
wobei (i, j) der Mittelpunkt des rechteckigen Blocks ist. u, v sind die unabhängigen Variablen entlang der x- bzw. y-Richtung. Der Ausdruck der Phase \(\theta (i,j)\) an jedem Punkt ist wie folgt:
Die räumliche Richtung von \(\theta (i,j)\) ist orthogonal zur Hauptrichtung des Fourier-Spektrums im ausgewählten h × w-Fenster. Aufgrund von Lärm und Verunreinigungen auf der Brückenoberfläche kann die Berechnungsrichtung abweichen. Um den Einfluss zu reduzieren, wird ein Gaußscher Tiefpassfilter verwendet, d. h. der gewichtete Durchschnitt der Richtung in der Nachbarschaft eines Pixels wird verwendet, um die Richtung des Pixels zu ersetzen. Die Ausrichtung des beschädigten Bereichs ist der kumulative Durchschnitt der Pixelausrichtung in jedem lokalen Bereich. Wenn die Ausrichtung des e-ten beschädigten Bereichs durch Sr(e) dargestellt wird und die Anzahl der Pixel mit 0 Pixel im e-ten beschädigten Bereich durch ek dargestellt wird, dann lautet der Ausdruck von Sr(e) wie folgt:
Am Beispiel der Huanshui-Flussbrücke in der chinesischen Provinz Hubei befindet sich die Brücke im Nordwesten der chinesischen Provinz Hubei, wo der Flusskanal während der Hochwasserperiode gerade verläuft. Der Schrägungswinkel zwischen Brückenachse und Hochwasserströmung beträgt 5 Grad. Durch die Betrachtung der geologischen Materialien verschiedener Untersuchungen vor dem Brückenbau kann festgestellt werden, dass die Geologie des Brückenstandorts insgesamt relativ stabil ist. Einige Parameter sind in Tab. dargestellt. 1.
Die Bodenhöhe beträgt -10,5 bis -21,3 m. Die Flussreichweite des Brückenstandorts gilt als Navigationsanforderung der Klasse 6. Die Längsneigung wird in der Längsebene der Brückenachse festgelegt, die vertikale Kurve wird in der Nähe der Pfahlnummer in der Mitte der Brücke festgelegt. Die Ebene der Brückenachse ist eine Gerade. Die gesamte Brücke verfügt über fünf Pfeilerpaare. Die Spannweite beträgt 3 × (5 × 20) + 2 × (4 × 20) m und die Gesamtlänge der Brücke beträgt 466,54 m. Der Überbau der Brücke besteht aus einer vorgespannten Betonhohlplatte mit durchgehender Fahrbahnplatte. Als Unterkonstruktion dient ein Säulenpfeiler mit einem Durchmesser von 1,2 m, als Gründung ein Bohrpfahl mit einem Durchmesser von 1,4 m. Der Bohrpfahl ist entsprechend den Anforderungen eines Reibpfahls ausgelegt. Das physische Bild der Brücke, das vor Ort mit einem Mobiltelefon aufgenommen wurde, ist in Abb. 9 dargestellt.
Physisches Bild der Brücke.
Um den sicheren Betrieb der Brücke zu gewährleisten, bewerten Sie den technischen Zustand und die Tragfähigkeit der Brücke durch die Bewertung des technischen Zustands und die Tragfähigkeitsprüfung und -bewertung, beurteilen ihre Sicherheit und Anwendbarkeit und stellen die genaue technische Grundlage für die Modernisierung und Verstärkung bereit der Brücke und stellen die Originalakkumulation für die Einrichtung von Brückenzustandsdateien und die dynamische Verwaltung von Wartungsdaten bereit. Zu diesem Zweck werden mit der Digitalkamera Bilder von 8 beschädigten Brückenteilen aufgenommen. Die Originalbildergebnisse sind in Abb. 10 dargestellt. Die tatsächliche Größe jedes Bildes beträgt 1 m × 1 m.
Teil des Originalbildes.
Durch die Analyse der Bildmerkmale des beschädigten Bereichs der Brückenstruktur wird der Blickwinkel des beschädigten Bereichs geändert. Das Rauschen des beschädigten Bildes wird entfernt und die Kontur des beschädigten Bereichs wird extrahiert. Nach der Verarbeitung zur Korrektur des Blickwinkels des Schadensbereichs und der Verarbeitung zur Entrauschung des Schadensbildes für das Oberflächenbild der Brückenstruktur sind die acht erhaltenen Bilder jeweils wie in Abb. 11 dargestellt. Aus Abb. 10 ist ersichtlich, dass es in einigen Fällen die folgenden Probleme gibt Brückenkonstruktionen: Risse im Hauptträger, die zum Teil nahe am angegebenen Grenzwert liegen oder diesen überschreiten; Wabenstruktur, pockennarbige Oberfläche, Abplatzungen und Beschädigungen des Betons; Korrosion der örtlichen verstärkten Stahlplatte und Beschädigung der wasserdichten Beschichtung.
Bild nach der Bildbearbeitung.
Nach der Konturextraktion des Schadensbereichs ist der erhaltene Schadensbereich in Abb. 12 dargestellt. Auf der Grundlage des erhaltenen Bildes des Schadensbereichs werden durch die automatische Identifizierungsmethode des Schadensbereichs der Brückenstruktur die Schadensbereichsskala, der Schadensbereichsanteil und der Schaden berechnet Bereichsorientierung wird realisiert. Die tatsächliche Größe jedes Pixels im Bild beträgt 4 mm × 4 mm. Die Anzahl der beschädigten Bereiche E in verschiedenen Brückenstrukturbildern wird berechnet und jeweils gezählt. Die Anzahl der beschädigten Bereiche in verschiedenen Bildern von Brückenstrukturen ist unterschiedlich. Durch die Kombination von Gl. (5) Im obigen Abschnitt „Charakteristische Parameter zur Extraktion von Strukturschäden“ kann die Länge L des beschädigten Bereichs berechnet werden. Durch die Kombination von Gl. (6) Im obigen Abschnitt „Charakteristische Parameter zur Extraktion von Strukturschäden“ kann der Radius R des beschädigten Bereichs berechnet werden. Durch die Kombination von Gl. (7) Im obigen Abschnitt „Charakteristische Parameter zur Extraktion von Strukturschäden“ kann die Fläche S der beschädigten Fläche berechnet werden. Durch die Kombination der Gleichungen. (8) – (10) Im obigen Abschnitt „Charakteristische Parameter zur Extraktion von Strukturschäden“ kann die Ausrichtung Sr des beschädigten Bereichs berechnet werden. Um die statistische Analyse zu erleichtern, sind die Merkmalsparameterwerte des größten Schadensbereichs im Brückenstrukturbild in Tab. aufgeführt. 2. Die Länge, der Radius, die Fläche und die Ausrichtung des größten beschädigten Bereichs im Brückenstrukturbild werden jeweils durch L(max), R (max), S(max) und Sr(max) ausgedrückt. Die konkreten Werte sind in Tab. dargestellt. 2.
Extrahiertes Bild des Schadensbereichs.
Um die Durchführbarkeit und Genauigkeit der Methode zu überprüfen, wird die Methode mit den Ergebnissen der traditionellen Mensch-Computer-Interaktionserkennung und den gemessenen Ergebnissen verglichen. Die Erkennung von Mensch-Computer-Interaktionen nutzt hauptsächlich vorhandene kommerzielle Bildverarbeitungssoftware, um Bilder beschädigter Bereiche vorzuverarbeiten und zu binarisieren und dann bestimmte Bereiche manuell auszuwählen, kombiniert mit der Anzahl der Pixel, um verschiedene Parameterwerte zu berechnen. Der Messwert wird hauptsächlich viele Male mit der Nonius-Skala gemessen, und der Durchschnittswert der fünf Messergebnisse wird als Messergebnis ausgewählt. In Bezug auf die Extraktionsergebnisse der entsprechenden Länge L(max) des größten beschädigten Bereichs im Brückenstrukturbild sind die Vergleichsergebnisse in Abb. 13 dargestellt. In Bezug auf den Vergleich der entsprechenden Länge des größten beschädigten Bereichs ist aus Abb. ersichtlich . 13a, dass die mit dieser Methode erzielten Ergebnisse und die Ergebnisse der herkömmlichen Mensch-Computer-Interaktion größer sind als die gemessenen Ergebnisse. Indem die Messwerte als Nenner und der Intervallwert zwischen den mit dieser Methode erhaltenen Ergebnissen und den Messwerten als Zähler verwendet werden, wird der berechnete Prozentwert als Ergebnisfehler dieser Methode betrachtet. Durch die Verwendung der Messwerte als Nenner und des Intervallwerts zwischen den durch traditionelle Mensch-Computer-Interaktionsmethoden erhaltenen Ergebnissen und den Messwerten als Zähler wird der berechnete Prozentwert als Ergebnisfehler traditioneller Mensch-Computer-Interaktionsmethoden betrachtet. Wie aus Abb. 13b ersichtlich ist, beträgt der maximale Fehler der mit dieser Methode erhaltenen Ergebnisse 1,931 % und der minimale Fehler 0,904 %. Der maximale Fehler der Ergebnisse, die mit der herkömmlichen Mensch-Computer-Interaktionsmethode erzielt werden, beträgt 47,967 % und der minimale Fehler beträgt 3,013 %. Die Ergebnisse zeigen, dass die vorgeschlagene Methode bei der Extraktion der entsprechenden Länge L(max) des größten beschädigten Bereichs im Bild der Brückenstruktur genauer ist.
Vergleich von Längenwert und Fehler.
In Bezug auf die Extraktionsergebnisse des Radius R(max), der dem größten Schadensbereich im Brückenstrukturbild entspricht, sind die Vergleichsergebnisse in Abb. 14 dargestellt. Der Vergleich des entsprechenden Radius des maximalen Schadensbereichs ist aus ersichtlich Abb. 14a zeigt, dass die mit dieser Methode erzielten Ergebnisse näher an den gemessenen Ergebnissen liegen als diejenigen, die durch herkömmliche Mensch-Computer-Interaktion erzielt werden. Wie aus Abb. 14b ersichtlich ist, beträgt der maximale Fehler der mit dieser Methode erhaltenen Ergebnisse 17,284 % und der minimale Fehler 3,477 %. Der maximale Fehler der Ergebnisse, die mit der herkömmlichen Mensch-Computer-Interaktionsmethode erzielt werden, beträgt 61,905 % und der minimale Fehler beträgt 12,016 %. Die Ergebnisse zeigen, dass die vorgeschlagene Methode bei der Extraktion des entsprechenden Radius R(max) des größten Schadensbereichs im Bild der Brückenstruktur genauer ist.
Vergleich von Radiuswert und Fehler.
In Bezug auf die Extraktionsergebnisse der entsprechenden Fläche S(max) der größten Schadensfläche im Brückenstrukturbild sind die Vergleichsergebnisse in Abb. 15 dargestellt. Der Vergleich der entsprechenden Fläche der größten Schadensfläche ist aus Abb. ersichtlich . 15a, dass die mit dieser Methode erzielten Ergebnisse näher an den gemessenen Ergebnissen liegen als diejenigen, die durch herkömmliche Mensch-Computer-Interaktion erzielt werden. Indem die Messwerte als Nenner und der Intervallwert zwischen den mit dieser Methode erhaltenen Ergebnissen und den Messwerten als Zähler verwendet werden, wird der berechnete Prozentwert als Ergebnisfehler dieser Methode betrachtet. Durch die Verwendung der Messwerte als Nenner und des Intervallwerts zwischen den durch herkömmliche Mensch-Computer-Interaktionsmethoden erzielten Ergebnissen und den Messwerten als Zähler wird der berechnete Prozentwert als Ergebnisfehler herkömmlicher Mensch-Computer-Interaktionsmethoden betrachtet. Wie aus Abb. 15b ersichtlich ist, beträgt der maximale Fehler der mit dieser Methode erhaltenen Ergebnisse 25,000 % und der minimale Fehler 6,667 %. Der maximale Fehler der durch herkömmliche Mensch-Computer-Interaktionsmethoden erzielten Ergebnisse beträgt 75,862 % und der minimale Fehler beträgt 12,5 %. Die Ergebnisse zeigen, dass die vorgeschlagene Methode bei der Extraktion des entsprechenden Bereichs S(max) des größten Schadensbereichs im Bild der Brückenstruktur genauer ist.
Flächenwert- und Fehlervergleichstabelle.
Im Hinblick auf die Sr(max)-Extraktionsergebnisse des entsprechenden Azimuts des größten Schadensbereichs im Brückenstrukturbild sind die Vergleichsergebnisse in Abb. 16 dargestellt. Der Vergleich der entsprechenden Richtungen des größten Schadensbereichs ist aus ersichtlich Abb. 16a zeigt, dass die mit dieser Methode erzielten Ergebnisse näher an den gemessenen Ergebnissen liegen als diejenigen, die durch herkömmliche Mensch-Computer-Interaktion erzielt werden. Indem die Messwerte als Nenner und der Intervallwert zwischen den mit dieser Methode erhaltenen Ergebnissen und den Messwerten als Zähler verwendet werden, wird der berechnete Prozentwert als Ergebnisfehler dieser Methode betrachtet. Durch die Verwendung der Messwerte als Nenner und des Intervallwerts zwischen den durch traditionelle Mensch-Computer-Interaktionsmethoden erhaltenen Ergebnissen und den Messwerten als Zähler wird der berechnete Prozentwert als Ergebnisfehler traditioneller Mensch-Computer-Interaktionsmethoden betrachtet. Wie aus Abb. 16b ersichtlich ist, beträgt der maximale Fehler der mit dieser Methode erhaltenen Ergebnisse 11,844 % und der minimale Fehler 2,186 %. Der maximale Fehler der Ergebnisse, die mit der herkömmlichen Mensch-Computer-Interaktionsmethode erzielt werden, beträgt 56,250 % und der minimale Fehler beträgt 5,802 %. Es zeigt, dass die mit dieser Methode erzielten Ergebnisse im Hinblick auf die Extraktion der entsprechenden Richtung Sr(max) des größten Schadensbereichs im Bild der Brückenstruktur genauer sind.
Vergleich von Azimutwert und Fehler.
In Abb. In den Abbildungen 13b, 14b, 15b wurden traditionelle Methoden zur Berechnung von Länge, Radius und Fläche verwendet, es gab jedoch erhebliche Fehler in Bild Nr. 3 und Bild Nr. 8. Dies war hauptsächlich auf die Unschärfe des Bildes Nr. 3 im Vergleich zu anderen Bildern und das Vorhandensein von mehr kleinen Poren im Bild Nr. 8 im Vergleich zu anderen Bildern zurückzuführen. Unscharfe Bilder und kleinräumige Schadensbereiche können leicht zu einer Verzerrung der menschlichen Erkennung führen und dadurch die maschinelle Erkennung und Berechnung beeinträchtigen. In Abb. 16b gibt es bei der Verwendung traditioneller Methoden zur Berechnung des Azimuts einen erheblichen Fehler im Bild Nr. 5. Dies ist hauptsächlich auf das Vorhandensein von mehr Azimut-Jitter im beschädigten Bereich des Bildes Nr. 5 zurückzuführen, der keine Kontinuität aufweist, was zu erheblichen Fehlern bei der Berechnung des Azimuts führt. Im Vergleich zu herkömmlichen Methoden bietet die in diesem Artikel vorgeschlagene Methode mehr Vorteile bei der Identifizierung von Bereichen mit Bildunschärfe, kleinen Schäden und zufälligen Schäden.
Durch den Vergleich von acht Gruppen von Testergebnissen kann festgestellt werden, dass die Verwendung der in diesem Artikel vorgeschlagenen Methode zum Extrahieren der Länge des beschädigten Bereichs einen Messfehler von nicht mehr als 2 % aufweist, während der Radius des beschädigten Bereichs einen Messfehler von aufweist nicht mehr als 18 %, die Fläche des beschädigten Bereichs weist einen Messfehler von nicht mehr als 25 % auf, der Azimut des beschädigten Bereichs weist einen Messfehler von nicht mehr als 12 % auf. Es zeigt, dass die Genauigkeit dieser Methode höher ist. Dies liegt vor allem daran, dass bei der Bilderkennung von Bruchmerkmalen und Hohlraummerkmalen Bruchmerkmale leichter zu erkennen sind. Es kann die Breite und Ausrichtung von Rissen anhand der globalen Pixelmerkmale zählen und analysieren und ist nicht leicht von lokal infizierten Pixeln betroffen. Darüber hinaus ist ersichtlich, dass die Genauigkeit der Längen-, Radius-, Flächen- und Ausrichtungsparameter des mit dieser Methode extrahierten Schadensbereichs höher ist als die Ergebnisse herkömmlicher Mensch-Computer-Interaktion. Dies liegt vor allem daran, dass die traditionelle Mensch-Computer-Austauschmethode manuelle Eingriffe erfordert und ihre Berechnungsergebnisse leicht durch Faktoren beeinträchtigt werden. Die traditionelle Extraktion der Mensch-Computer-Interaktion steht in engem Zusammenhang mit der Erfahrung des Analytikers. Das Oberflächenbild der analysierten Brückenstruktur wird nicht vorverarbeitet, was leicht durch subjektive Beurteilung beeinflusst werden kann. Mit dieser Parameterextraktionsmethode können die charakteristischen Parameter, die dem Schadensbereich der Brückenstruktur entsprechen, objektiver extrahiert werden. Durch den Vergleich der Ergebnisse der automatischen Extraktion und der herkömmlichen Extraktion kann festgestellt werden, dass die in diesem Dokument automatisch identifizierten Merkmalsparameter des Schadensbereichs genauer sind und die Gesamtfehlerrate niedriger ist als bei der herkömmlichen Extraktion. Darüber hinaus ist die Extraktionseffizienz der automatischen Identifizierung in diesem Artikel deutlich höher als die der herkömmlichen Methode zur Extraktion der Mensch-Computer-Interaktion, was beweist, dass die in diesem Artikel beschriebene Brückenstruktur auf digitalen Bildern basiert. Die Methode der automatischen Identifizierung von Schadensbereichen ist machbar und genau. Die für diese Methode anwendbare Rissskala wird von den umfassenden Faktoren Bildauflösung, Prüfentfernung und Aufnahmewinkel beeinflusst. Im Allgemeinen gilt: Je höher die Auflösung, desto geringer der Prüfabstand, desto positiver der Aufnahmewinkel und desto kleiner das Ausmaß der erkannten Risse. Dies ermöglicht eine genauere Erfassung und Identifizierung des Gebiets und Maßstabs, in dem sie sich befinden. Im Idealfall kann die Risserkennungsauflösung 0,1 mm erreichen.
Da die Methode in diesem Artikel darin besteht, den strukturellen Schadensbereich auf der Grundlage der Bilderkennung zu identifizieren, gibt es keine offensichtlichen Anforderungen an die Art der Brückenkonstruktionen, wie z. B. Stahlbrücken und Betonbrücken. Mithilfe einer Digitalkamera können klare Bilder von beschädigten Brückenbereichen effektiv erfasst werden. In Kombination mit dieser Methode können die Parameter des beschädigten Bereichs extrahiert werden, was für die anschließende Erkennung und Analyse praktisch ist. Neben der automatischen Erkennung des Schadensbereichs von Brückenbauwerken kann diese Technik auch auf die Schadenserkennung anderer konventioneller Betonbauwerke und -blöcke angewendet werden. Die Methode in diesem Artikel weist auch einige Mängel auf. Da die Beurteilung der Tiefenrichtung des Schadensbereichs für die Gesamtqualitätsbewertung wichtiger ist, ist die in diesem Artikel verwendete Datenquelle das ebene Bild des Schadensbereichs, das zur zweidimensionalen Informationsquelle gehört und nicht effektiv sein kann Beurteilen Sie die Tiefe des Schadensbereichs. Um die Tiefe des Schadensbereichs der Brücke zu verstehen, ist es daher auch erforderlich, andere zerstörungsfreie Erkennungsmethoden (wie Schallwellen- und Radartechnologie) für eine umfassende Analyse zu kombinieren. Darüber hinaus besteht die in diesem Artikel beschriebene Methode hauptsächlich darin, die Risseigenschaften im digitalen Bild zu extrahieren, während in der tatsächlichen Brückenstruktur einige Risse unbedeutend sind. Daher ist es bei der Erkennung und Beurteilung von Brückenstrukturen bei der Verwendung dieser Technologie auch erforderlich, die tatsächliche Situation am Standort zu kombinieren, um einige Schadensbereiche oder Risse auszuwählen oder abzulehnen, wobei einige Parameter ignoriert werden, die für die Erkennung und Bewertung keine Referenzbedeutung haben. um die Genauigkeit der Qualitätsbewertung der Brückenstruktur sicherzustellen. Aus dem perspektivischen Korrekturprozess des beschädigten Bereichs ist ersichtlich, dass die Zuverlässigkeit der Schadensschätzung umso geringer ist, je größer der Winkel zwischen der Ebene der Brückenoberfläche und der Bildebene ist. Daher ist es bei der tatsächlichen Bildaufnahme immer noch notwendig, den Winkel so weit wie möglich zu minimieren. Auch ein zu großer Winkel kann die Korrekturwirkung der Methode in diesem Artikel beeinträchtigen.
In diesem Artikel wird die entsprechende technische Forschung durchgeführt, um das technische Problem der Bilderkennung und Messung des Schadensbereichs von Brückenstrukturen zu lösen. Auf der Grundlage der Definition der Eigenschaften des digitalen Bildes des beschädigten Bereichs der Brückenstruktur wird eine Vorverarbeitungsmethode für das Bild des beschädigten Bereichs der Struktur vorgeschlagen, mit der die Qualität des vor Ort aufgenommenen Bildes effektiv verbessert werden kann. Diese Methode realisiert die visuelle Winkelkorrektur des Schadensbereichs und die Verbesserung des Schadensmerkmalsbereichs des Oberflächenbilds der Brückenstruktur und kann die durch schwarze und schmutzige Flecken verursachten Störungen wirksam unterdrücken. Bei der automatischen Identifizierung des Schadensbereichs der Brückenstruktur wird eine verbesserte Ostu-Methode vorgeschlagen, um die globalen Schwellenwert- und lokalen Schwellenwertmerkmale des Bildes organisch zu verschmelzen. Die Gradientendifferenzfunktion wird verwendet, um den Schadensbereich weiter zu filtern und eine Konturzeichnung des Schadensbereichs im Oberflächenbild der Brückenstruktur zu erreichen, wodurch eine genauere Konturextraktion des Schadensbereichs erreicht werden kann. Bei der Quantifizierung des charakteristischen Parameterindex des Schadensbereichs der Brückenkonstruktion werden der Maßstab des Schadensbereichs, der Anteil des Schadensbereichs und die Orientierungsberechnungsregel des Schadensbereichs erstellt. Die wichtige Inspektion und Diagnose charakteristischer Parameter des Schadensbereichs der Brückenkonstruktion wird durchgeführt. In Kombination mit der Testanalyse tatsächlicher technischer Fälle zeigen die Testergebnisse, dass die in diesem Dokument vorgeschlagene automatische Methode zur Identifizierung von Schadensbereichen der Brückenstruktur auf der Grundlage digitaler Bilder machbar und stabil ist, was die Messgenauigkeit des aktuellen Schadensbereichs der Brückenstruktur verbessern kann , wodurch mehr Datenunterstützung für die Erkennung und Wartung von Brückenstrukturen bereitgestellt wird.
Alle während dieser Studie generierten oder analysierten Daten sind in diesem veröffentlichten Artikel enthalten.
Zhang, ZL, Yang, T. & Pei, XM Forschung zur Anwendung einer auf GAN basierenden Bildübersetzungstechnologie. J. Phys. Konf. Ser. 1744(4), 042120. https://doi.org/10.1088/1742-6596/1744/4/042120 (2021).
Artikel Google Scholar
Zhu, Y., Chen, W., Fu, Y. & Huang, S. Ein Überblick über faseroptische Sensornetzwerke für raue Umgebungen zur Überwachung des strukturellen Zustands von Brücken. Proc Spie https://doi.org/10.1117/12.680663 (2006).
Artikel Google Scholar
Chen, JH, Gao, YJ, Liu, S. & Sun, YP Überprüfung und Verstärkung des Gerüsts des Hausblocks für den Hängegestellbau der Qinhe-Brücke. Appl. Mech. Mater. 10(1), 438–439. https://doi.org/10.4028/www.scientific.net/AMM.438-439.926 (2013).
Artikel Google Scholar
Lin, JW, Chen, CW & Chung, SH Modellierung und Bewertung von Brückenstrukturen zur Vermeidung seismischer Gefahren. Nat. Gefahren 61(3), 1115–1126. https://doi.org/10.1007/s11069-011-9969-3 (2012).
Artikel Google Scholar
Alessio, P. Gekoppelte Sicherheitsbewertung von Schrägseilbrücken. Mod. Appl. Wissenschaft. 6(7), 64–78. https://doi.org/10.5539/mas.v6n7p64 (2012).
Artikel Google Scholar
Lee, CH et al. Sicherheitsbewertung von Brückenbauwerken anhand von Umgebungsvibrationen. Adv. Wissenschaft. Technol. 83, 151–156. https://doi.org/10.4028/www.scientific.net/AST.83.151 (2013).
Artikel Google Scholar
Sabri, O., Kendziorra, K., Wolf, H., Gertz, HJ & Brust, P. Acetylcholinrezeptoren bei Demenz und leichter kognitiver Beeinträchtigung. EUR. J. Nucl. Med. Mol. Bildgebung 35(1), 30–45. https://doi.org/10.1007/s00259-007-0701-1 (2008).
Artikel CAS Google Scholar
Ma Y. Forschung zur digitalen Ölgemälde basierend auf digitaler Bildverarbeitungstechnologie. In: 2020 IEEE-Konferenz für Telekommunikation, Optik und Informatik (TOCS). IEEE, DOI: https://doi.org/10.1109/TOCS50858.2020.9339719 (2020).
Chen, XL et al. Modernste Überprüfung der Gleichmäßigkeit der Asphaltmischungsverteilung basierend auf digitaler Bildverarbeitungstechnologie. IOP-Konf. Ser. 638(1), 012074. https://doi.org/10.1088/1755-1315/638/1/012074 (2021).
Artikel Google Scholar
Yu, B., Li, Y. & Chen, ZH Photoelektrische Erkennung der Lochform und -größe für große Plattenteile. J. Phys. Konf. Ser. 1744(2), 022119. https://doi.org/10.1088/1742-6596/1744/2/022119 (2021).
Artikel MathSciNet Google Scholar
Su, QT, Zeng, M., Dai, C., Wu, C. & Shao, C. Biegekapazität eines orthotropen Verbundbrückendecks mit T-förmigen Stahlrippen. Iabse Symp. Rep. 106(13), 70–76. https://doi.org/10.2749/222137816819258311 (2016).
Artikel Google Scholar
Cha, YJ, Chen, JG & Buyukozturk, O. Nur-Ausgabe-Computer-Vision-basierte Schadenserkennung unter Verwendung von phasenbasiertem optischem Fluss und nicht parfümierten Kalman-Filtern. Ing. Struktur. 132, 300–313. https://doi.org/10.1016/j.engstruct.2016.11.038 (2017).
Artikel Google Scholar
Wang, P. et al. Automatische Deckenschadenerkennung in großspannigen Strukturen basierend auf Computer Vision und Deep Learning. Nachhaltigkeit https://doi.org/10.3390/su14063275 (2022).
Artikel Google Scholar
Zhang, LX, Shen, JK & Zhu, BJ Ein Überblick über die Forschung und Anwendung von Deep-Learning-basierter Computer Vision bei der Erkennung struktureller Schäden. Earthq. Ing. Ing. Vib. 21(1), 1–21. https://doi.org/10.1007/s11803-022-2074-7 (2022).
Artikel Google Scholar
Huang, XY, Liu, ZL, Zhang, XY & Kang, JL Erkennung von Oberflächenschäden an Stahldrahtseilen mithilfe von Deep-Learning- und Computer-Vision-Techniken – ScienceDirect. Messung 161, 107843. https://doi.org/10.1016/j.measurement.2020.107843 (2020).
Artikel Google Scholar
Riklin, RT, Kiryati, N. & Sochen, N. Priorbasierte Segmentierung und Formregistrierung bei perspektivischer Verzerrung. Int. J. Comput. Vision 72(3), 309–328. https://doi.org/10.1007/s11263-006-9042-y (2007).
Artikel Google Scholar
Wang, J. Civ. Struktur. Heilen. Überwachen. 12(3), 501–515. https://doi.org/10.1007/s13349-022-00558-4 (2022).
Artikel Google Scholar
Wang, JC, Chen, W., Wang, YT & Zou, JP Korallenriff-Porenerkennung und Merkmalsextraktion basierend auf Bohrlochbildern. Mar. Georesour. Geotechnologie. 11, 1–12. https://doi.org/10.1080/1064119X.2021.1874576 (2021).
Artikel Google Scholar
Wang, JC, Wang, CY, Han, ZQ, Zou, XJ & Hu, S. Methode zur Extraktion charakteristischer Parameter einer versteckten Karsthöhle aus dem Bohrlochradarsignal. Int. J. Geomech. 20(8), 04020113. https://doi.org/10.1061/(ASCE)GM.1943-5622.0001733 (2020).
Artikel Google Scholar
Wang, JC, Wang, CY, Sheng, Hu., Han, ZQ & Wang, YT Eine neue Methode zur Extraktion von Parametern der Strukturoberfläche in Bohrlochbildern. Geotechnik. Mech. 38(10), 3074–3080 (2017).
Google Scholar
Wong, TY, Wong, MH & Lui, CS Eine präzise Beendigungsbedingung des probabilistischen Paketmarkierungsalgorithmus. IEEE Trans. Zuverlässige sichere Datenverarbeitung. 5(1), 6–21. https://doi.org/10.1109/TDSC.2007.70229 (2008).
Artikel Google Scholar
Referenzen herunterladen
Diese Arbeit wurde von der National Natural Science Foundation for the Youth of China (Grant No. 41902294) unterstützt; das National Major Scientific Instruments and Equipments Development Project der National Natural Science Foundation of China (Grant No. 42227805).
Institut für Fels- und Bodenmechanik, Chinesische Akademie der Wissenschaften, Wuhan, 430071, Hubei, China
Jinchao Wang, Houcheng Liu, Zengqiang Han und Yiteng Wang
Staatliches Schlüssellabor für Geomechanik und Geotechnik, Wuhan, 430071, Hubei, China
Jinchao Wang, Zengqiang Han und Yiteng Wang
Wuhan Zhongke Kechuang Engineering Testing Co., Ltd., Wuhan, 430071, Hubei, China
Houcheng Liu
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
JW: Konzeptualisierung, Methodik, Software, Schreiben – Originalentwurf. HL: Projektverwaltung, Datenkuration. ZH: Projektverwaltung, Datenkuration. YW: Formale Analyse, Datenkuration.
Korrespondenz mit Jinchao Wang.
Die Autoren geben an, dass keine Interessenkonflikte bestehen.
Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.
Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.
Nachdrucke und Genehmigungen
Wang, J., Liu, H., Han, Z. et al. Automatische Methode zur Identifizierung der Schadensstelle einer Brückenstruktur basierend auf einem digitalen Bild. Sci Rep 13, 12532 (2023). https://doi.org/10.1038/s41598-023-39740-z
Zitat herunterladen
Eingegangen: 29. März 2023
Angenommen: 13. Juli 2023
Veröffentlicht: 02. August 2023
DOI: https://doi.org/10.1038/s41598-023-39740-z
Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:
Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.
Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt
Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.