Mobile QR Code QR CODE
Export citation EndNote

  1. 고려대학교 건축사회환경공학부 박사후연구원 (Post Doctoral Researcher, School of Civil, Environmental and Architectural Engineering, Korea University, Seoul 02841, Rep. of Korea)
  2. 숭실대학교 건축학과 석사과정 (Graduate Student, Department of Architecture, Soongsil University, Seoul 06978, Rep. of Korea)
  3. 숭실대학교 건축학부 부교수 (Associate Professor, School of Architecture, Soongsil University, Seoul 06978, Rep. of Korea)



원격구조감리, 심도 카메라, 3D 포인트 클라우드, 철근 배근 간격
remote construction supervision, depth camera, 3D point cloud, rebar spacing

1. 서 론

철근 콘크리트 구조물에서 철근이 충분한 인장력을 발휘하기 위해서는 시공현장에서 설계기준에 따라 정확한 위치에 배근되어야 하며, 이를 확인하는 공사감리가 필요하다. 이에 건축법 시행령 제19조에서는 철근 콘크리트 구조물의 안전성을 확보하기 위해 시공 단계별 감리 시기와 대상을 규정하고 있다. 또한 공사감리자는 기초 공사, 지붕 슬래브, 상부 슬래브의 배근이 완료된 시점마다 철근 배치를 확인해야한다. 부실한 공사감리는 구조물의 생애 전주기에서 내구성 저하 및 안전사고의 원인이 될 수 있기에 감리의 중요성이 더욱 강조되고 있다(Jeong 2022).

실제 2017년 포항지진 이후 3층 이상 필로티 구조 건축물이 공사감리 대상에 추가되어 시공 중 감리의 중요성이 강조되었다. 하지만, 감리자 1인당 평균 협력대상 건축물은 73건으로, 기존보다 약 60건의 추가 업무가 발생하는 결과를 가져왔다(ANCnews 2018; Kim et al. 2024). 감리자는 제한된 시간 내에 주요 구조 요소를 점검해야 하는 부담을 품으며, 특히 여러 현장을 동시에 관리할 경우 규정된 시점에 맞춘 감리 수행이 어려워 업무 과중이 발생한다. 또한, 법적 규정에 따른 상주 및 방문 의무로 시간적 제약이 큰 부담으로 작용한다.

이에 공사감리의 효율성 향상을 위해 디지털 전환의 필요성이 논의되고 있다. 특히, ICT 및 센서 기술을 활용한 데이터 기반의 감리 시스템이 주목받고 있으며, 이는 공사품질을 객관적으로 평가하고 시공 중 발생할 수 있는 문제를 신속히 파악하는 데 기여할 수 있다. 구체적으로 딥러닝 기술을 활용한 철근 개수 추출, 위치 인식 등의 연구(Zhu et al. 2020; Li et al. 2021; Shin et al. 2021) 및 휴대용 LiDAR(Light Detection and Ranging)와 같은 3D 스캐너를 활용하여 철근의 위치를 식별하고, 철근 간격 및 배근 상태를 평가하는 연구(Kardovskyi and Moon 2021; Yuan et al. 2021; Yuan et al. 2023)가 수행되고 있다. 최근, depth camera를 활용하여 철근 간격을 실시간으로 측정할 수 있는 시스템이 개발되었으며, 고가의 3D 스캐너에 비해 효율적인 계측이 가능함을 실험을 통해 입증하였다(Woo et al. 2025). 이를 통해 데이터 수집, 분석 및 전송에 소요되는 시간을 단축함으로써, 감리업무의 효율성 제고에 기여하였다. 그러나 해당 연구에서 확인된 바와 같이, 철근 수직 간격을 측정하는 과정에서 오차가 발생하였으며, 특히 수직 간격 측정 대상인 수평 철근의 경우 조도 및 음영의 영향으로 인해 심도 정보가 누락되는 문제가 나타났다. 이는 3D 포인트 클라우드를 추정할 때 철근 표면의 음영으로 인해 대응점 추출에 영향을 주는 것에 기인한다.

본 연구는 depth camera 기반 계측 방식의 한계를 보완하기 위한 측정법 중심의 계측 기법을 제안하고자 한다. 특히, 감리자가 비대면 환경에서도 신뢰도 높은 철근 간격 측정을 수행할 수 있도록 두 가지 측정법을 제안하였다. 이를 통해 건설 현장에서 철근 간격 측정의 효율성과 비대면 감리 가능성을 입증하였다.

2. 디지털 기반 비대면 감리

본 장에서는 디지털 기반 비대면 감리의 개념과 필요성을 정리하여, 이후 제시될 depth camera를 활용한 철근 간격 측정 기법의 적용 배경과 이론적 기반을 마련하고자 한다. 현행 공사감리는 정해진 시기에 공사감리자가 직접 현장에 방문하여 철근 배치와 같은 구조적 요소를 점검하는 방식으로 이루어진다. 이러한 방식은 현장 출장에 따른 시간적, 금전적 부담이 발생하며, 여러 현장을 동시에 관리하는 감리자의 업무 부담을 가중시킨다. 또한, 공사감리의 결과는 공사감리자의 숙련도와 경험에 따라 편차가 발생할 수 있어, 일정한 품질 수준을 유지하는 데 한계가 있다. 이에 정부는 전통적인 건설 기술에 BIM(building information modeling), 로봇, 드론, AI(인공지능), IoT(사물인터넷)와 같은 디지털 혁신 기술을 융합함으로써, 건설 프로세스를 디지털화하고 장비의 자동화, 가상 건설, 안전 관제 등을 통해 건설 과정의 생산성과 안전성을 극대화하기 위해 스마트 건설을 적극적으로 도입・추진하고 있다(MOLIT 2023).

디지털 기반의 비대면 감리는 Fig. 1과 같이 현장대리인이 현장의 실시간 데이터를 수집하여 사무실에 위치한 공사감리자가 이를 검토하는 방식을 의미한다. 이러한 비대면 방식은 감리자의 현장 방문을 최소화하면서도 실시간으로 시공 상태를 확인하고 문제를 즉각적으로 조치할 수 있는 장점을 제공한다. 또한, 디지털 기반 데이터를 통해 감리 결과의 객관성과 일관성이 높아져, 시공 품질과 안전성을 더욱 정밀하게 관리할 수 있다. 이러한 디지털 기반 비대면 감리는 감리 업무의 효율성을 높이고, 감리자의 물리적・시간적 부담을 줄이며, 시공 품질에 대한 체계적이고 신뢰성 있는 관리 체계를 구축하는 데 기여할 것으로 기대된다.

특히, Table 1에 제시된 철근 콘크리트 공사 비상주감리 체크리스트는 건축공사 감리세부기준에 명시된 내용으로, 철근 관련 공사감리는 구조 안전성과 직결되기 때문에 감리 항목 중에서도 우선순위가 높은 항목으로 분류된다. 특히, 콘크리트에 대한 감리는 주로 성적서 확인으로 이루어지지만, 철근에 대한 감리는 현장에서 직접 확인해야 하는 항목이 많다. 철근 감리에서는 개수, 직경, 간격이 주요 요소로 꼽히며, 이 중 개수와 직경은 육안 확인이 가능하지만, 간격은 별도의 측정이 필요하다. 따라서, 현장 방문 없이도 철근 배근 상태를 계측할 수 있는 개발의 필요성이 제기되고 있으며, 이는 본 연구에서 제안하는 depth camera 기반 철근 간격 계측 기법의 개발 배경이 된다. 다음 장에서는 이러한 비대면 감리 환경에서 실질적으로 활용 가능한 계측 장비와 이를 활용한 철근 간격 측정법에 대해서 구체적으로 다루고자 한다.

Fig. 1 Comparison of conventional on-site supervision and proposed digital-based non-face-to-face supervision system

../../Resources/KCI/JKCI.2025.37.5.589/fig1.png

Table 1 Checklist for non-resident supervision in reinforced concrete construction

Section

Inspections

Basic tasks

Rebar

placement

Rebar arrangement

Position and spacing of tie wires

Post-reinforcement inspection processing

- Quantity, diameter, pitch

- Quality of offset bending process for reinforcement

- Reinforced part

- Fixation length, bending fixation depth

- Spacing between rebars

- Quantity, diameter, length, and method of rebars

- Position, spacing, and tying condition of ties and stirrups

- Joint location, length

- Position of stirrups at column and beam intersections

- Retesting necessity

- Shear reinforcement at intersections of girder and beam

- Cover thickness and rebar spacers

Verification of rebar standards

- Standard products, manufacturer, and necessity of material testing

- Compliance with KS standards

Concrete mix verification

- Use of ready-mixed concrete from KS-certified factories

- Ready-mix concrete batch report and invoice

3. Depth camera 기반 철근 간격 측정 알고리즘 개발

3.1 철근 간격 측정 장비

Depth camera는 나란히 배치된 2개의 렌즈를 사용하여 3차원 데이터인 3D 포인트 클라우드를 계측할 수 있다. 2대의 카메라를 통해 계측되는 2D 이미지 쌍을 활용하여 3D 포인트 클라우드를 추정하기 위해 Stereo Depth Estimation을 사용한다. Stereo Depth Estimation(Lucas and Kanade 1981; Luong and Faugeras 1996; Hartley and Zisserman 2003; Nister 2004)은 두 이미지 간의 시차(disparity)를 계산하고, 이를 삼각측량(triangulation) 원리에 기반하여 3차원 위치를 추정하는 방식이다. 이 과정을 통해 별도의 reference 마커 없이 거리 정보를 복원할 수 있다. 이러한 과정에서 이미지 쌍을 동일한 평면으로 맞추기 위해 회전 및 이동이 필요하며, 복잡한 연산과정이 수행된다. Depth camera의 경우 두 렌즈의 시선과 방향이 평행하게 배치되어 있어 이미지 쌍을 동일한 평면으로 맞추는 정렬 과정이 간소화된다. 이로 인해 대응점 추출 및 3차원 정보 계산을 위한 연산이 효율적으로 수행되며, 실시간 계측에 적합한 연산 속도를 확보할 수 있다.

본 연구에서는 Fig. 2에 나타낸 Intel 사의 D455 depth camera를 사용하여 건설현장의 철근 간격을 측정하였다. D455는 이미지 쌍을 통해 3D 포인트 클라우드를 추정하는 과정에서 Stereo Depth Estimation 방식과 구조광 방식을 함께 사용한다. 구조광 방식은 IR Projector를 사용하여 Fig. 3에 나타낸 적외선 패턴을 투사하고 해당 패턴의 왜곡을 통해 3D 포인트 클라우드를 보정하는 특징이 있으며, D455의 상세 사양은 Table 2에 나타내었다.

Fig. 2 Configuration of a D455 depth camera

../../Resources/KCI/JKCI.2025.37.5.589/fig2.png

Fig. 3 IR structured light pattern projected by D455

../../Resources/KCI/JKCI.2025.37.5.589/fig3.png

Table 2 D455 tech specifications

RGB resolution

Up to 1,280×800

RGB FOV (H×V)

90°×65°

RGB frame rate

30 fps

Depth resolution

Up to 1,280×720

Depth FOV (H×V)

87°×58°

Depth frame rate

90 fps

Depth range

0.6-6 m

Depth technology

Stereo depth+Structured light

Connectors

USB-C 3.1

3.2 Depth camera 계측 데이터

본 연구에서는 건설 현장에서 철근 배근 간격을 측정하기 위해 depth camera로 수집된 데이터를 활용하였다. Depth camera는 2D 이미지와 3D 포인트 클라우드를 동시에 획득할 수 있으며, 상용 3D 스캐너에 비하여 경제적이다. 본 연구에 사용된 depth camera의 경우 촬영 시점에 Brown-Conrady 모델을 적용하여 렌즈 왜곡을 하드웨어적으로 보정한 후 보정된 데이터를 출력 및 저장하므로, 별도의 왜곡 보정 없이 계측 데이터를 활용할 수 있다(Clarke and Fryer 1998). Fig. 4는 2D 이미지와 3D 포인트 클라우드의 데이터 형식을 나타낸다. 2D 이미지는 각 픽셀(pixel)이 빨강, 초록, 파랑의 세 가지 색상 성분으로 구성된 3채널 이미지로, 인간의 시각적 인식에 기반하여 사물의 색상과 형태를 표현할 수 있으나 공간 위치정보는 제공하지 않는다. 이러한 2D 이미지는 일반적으로 W×H×3의 형식으로 저장되며, 여기서 W와 H는 이미지의 가로와 세로 픽셀 수를 의미한다. 숫자 3은 세 가지 색상 채널을 나타내며, 색상은 0~255 사이의 값을 통해 그 세기가 표현된다. 한편, 3D 포인트 클라우드는 N×3의 형식으로 구성되어 있다. 여기서 N은 포인트의 개수를 의미하며, 3은 X, Y, Z의 3차원 좌표를 의미한다. 3D 포인트 클라우드는 3차원 공간에서 물체의 위치와 형상을 정밀하게 측정할 수 있는 장점이 있지만, 객체 인식을 위해 복잡한 처리가 요구된다.

Depth camera를 통해 계측되는 3D 포인트 클라우드의 경우 2개의 렌즈를 통해 계측되는 이미지 쌍을 통해 추정되었다. 따라서, 3D 포인트 클라우드의 개수인 N은 depth camera로 계측되는 이미지의 크기인 W×H와 동일한 특징을 가지고 있다. 데이터 크기의 특징을 활용하여 Fig. 5에 나타난 것과 같이 3D 포인트 클라우드의 N을 이미지 크기와 동일한 형태인 W×H로 재구성하여 2D 이미지 각 픽셀에 해당하는 3D 포인트 클라우드의 좌표를 대응할 수 있다(Woo et al. 2025). 2D 이미지와 3D 포인트 클라우드의 대응은 다음 과정을 통해 수행될 수 있다.

(1)
$PCD = \left\{ p_i \mid p_i = (X_i, Y_i, Z_i) \right\} \\ IMG = \left\{ c_{jk} \mid c_{jk} = (R_{jk}, G_{jk}, B_{jk}) \right\} \\ PCD \rightarrow IMG_{pcd} = \left\{ c^{pcd}_{jk} \mid c^{pcd}_{jk} = (X_{jk}, Y_{jk}, Z_{jk}) \right\}$

여기서, $ p_{i}$는 3D 포인트 클라우드의 각 점을 의미하고, $i$는 3D 포인트 클라우드 내에서 각 점의 인덱스로 $i = 1,\: \cdots ,\: N$로 정의된다. $ c_{jk}$는 2D 이미지의 각 픽셀을 나타낸다. $j$와 $k$는 각각 depth camera로 계측된 2D 이미지의 수직과 수평 픽셀의 위치로 $j = 1,\: \cdots ,\: H$, $k = 1,\: \cdots ,\: W$로 정의된다. $ c_{jk}^{pcd}$는 3D 포인트 클라우드를 2D 이미지 픽셀에 대응된 데이터를 의미한다. $j$와 $k$는 2D 이미지와 동일한 좌표를 의미한다. 따라서, 2D 이미지 각 픽셀 위치에 대응하는 3D 포인트 클라우드를 활용하여 대응된 두 점 간의 유클리드 거리를 계산함으로써 철근의 간격을 측정할 수 있다. 이와 같은 2D 이미지와 3D 포인트 클라우드 간의 직접 대응 기반 계측 방식은 동일한 프레임 내에서 시각 정보와 거리 정보를 정합할 수 있는 구조로 별도의 후처리 없이 간격 측정이 가능하다는 장점이 있다. 또한, 3D 스캐너를 활용한 방식은 높은 정밀도와 넓은 스캐닝 범위를 갖는다는 이점이 있으나, 설치를 위한 공간 확보가 필요하고, 대용량 데이터 처리에 시간이 소요된다는 한계가 있다. 반면, depth camera는 실시간 데이터 획득 및 처리를 할 수 있어 건설현장과 같은 실외 환경에서의 적용성 측면에서 유리하다.

Fig. 6은 2D 이미지의 특정 픽셀에 해당하는 3D 포인트 클라우드를 대응하여 표현한 depth map이다. 2D 이미지에서는 시각적으로 박스의 아랫면이 윗면에 비해 픽셀 길이가 긴 것으로 나타나지만, 3차원 위치정보의 연산 결과, 윗면의 실제 길이가 더 긴 것을 확인할 수 있다. 이러한 depth map을 활용하여 철근의 간격 측정을 하고자 하는 픽셀 위치를 선정하여 해당 픽셀에 대응되는 3D 포인트 클라우드의 위치정보를 통해 간격 측정을 수행할 수 있다.

Fig. 4 2D RGB image and 3D point cloud data format

../../Resources/KCI/JKCI.2025.37.5.589/fig4.png

Fig. 5 Schematic of correspondence between 2D RGB image and 3D point cloud

../../Resources/KCI/JKCI.2025.37.5.589/fig5.png

Fig. 6 Depth map using 3D point cloud–2D RGB image correspondence

../../Resources/KCI/JKCI.2025.37.5.589/fig6.png

3.3 Depth camera를 활용한 철근 간격 측정법

Depth camera로 계측된 2D 이미지와 3D 포인트 클라우드 간의 대응을 통해 철근 간격을 측정한 예시는 Fig. 7에 나타내었다. 사용자의 용이한 철근 인식을 위해 2D 이미지에 depth map을 함께 나타냈으며, 이를 통해 동일한 시점에서 획득한 시각정보와 거리정보를 결합하여 철근의 위치를 더 정확하게 파악할 수 있다. 특히, depth map을 활용하면 전면에 위치한 철근과 후면에 위치한 철근의 판단이 용이하여 동일한 이미지 내에 중첩된 철근의 위치를 분리하여 분석할 수 있다.

그러나, 양쪽으로 배치된 렌즈를 통해 계측된 두 이미지로부터 추정된 3D 포인트 클라우드는 depth camera의 구조적 특성상 특정 상황에서 데이터 누락 현상이 발생할 수 있다. 특히, Fig. 8과 같이 수평 방향으로 배근된 철근 사이의 수직 간격을 측정할 때 일부 구간에서 3D 포인트 클라우드가 누락되는 현상이 관찰되었다.

이와 같은 데이터 누락은 depth camera의 계측 원리에서 기인한다. Depth camera는 두 개의 2D 이미지로부터 대응점을 추출하여 3D 포인트 클라우드를 추정하는데, 철근의 색상이 어두운 경우 빛을 흡수하여 심도 디테일이 감소하여 두 이미지 간 대응점 추출에 영향을 미친다. Fig. 9(a)에 나타난 수평 철근의 2D 이미지에서는 철근 표면에 음영이 나타나며, 대응점이 적어지는 현상이 확인된다. 이는 결과적으로 해당 부위의 3D 포인트 클라우드 누락으로 이어진다. 또한 Fig. 9(b)와 같이 수직으로 배근된 철근은 이미지 쌍 간의 반복 패턴이 적어 대응점 매칭이 원활하게 이루어지는 반면, 수평으로 배근된 철근은 반복되는 형태로 인해 정확한 대응점 매칭이 이루어지지 않아 3D 포인트 클라우드 생성이 제한되는 것으로 분석된다.

이러한 한계를 극복하기 위해, 본 연구에서는 데이터 누락으로 인해 철근의 수직 간격 측정이 어려운 상황에서 사용할 수 있는 두 가지 측정 방법을 제안한다. 첫 번째 방법은 철근의 교차점에서의 간격 측정이다. Fig. 10(a)에서 확인할 수 있듯이, 수평 배근과 수직 배근 철근이 교차하는 지점에서는 3D 포인트 클라우드 누락 현상이 상대적으로 적게 발생한다. 두 번째 방법은 depth camera의 수평 기울기를 조정하여 계측하는 방식이다. 수평 배근 철근은 반복되는 형태로 인해 이미지 쌍 간 대응점 매칭이 어려워 3D 포인트 클라우드가 누락될 수 있다. Depth camera의 수평 기울기를 조정할 시 수평 철근의 반복적인 이미지 패턴이 완화되어 대응점 매칭이 원활해진다. Fig. 10(b)는 depth camera의 수평 기울기 조정 후 계측한 결과이며, 누락되는 3D 포인트 클라우드가 최소화된 모습을 확인할 수 있다. 이후, 본 연구에서는 제안한 교차점 기반 측정 방식과 카메라 기울기 조정 방식을 기존 정면 계측 방식과 비교하여, 철근 간격 측정의 정확성과 안정성을 검증하였다.

Fig. 7 Rebar spacing measurement based on 3D point cloud- 2D RGB image correspondence

../../Resources/KCI/JKCI.2025.37.5.589/fig7.png

Fig. 8 Example of missing 3D point cloud in horizontally placed rebar map of slab reinforcement

../../Resources/KCI/JKCI.2025.37.5.589/fig8.png

Fig. 9 Causes of missing 3D point cloud

../../Resources/KCI/JKCI.2025.37.5.589/fig9.png

Fig. 10 Proposed methods to compensate for 3D point cloud loss

../../Resources/KCI/JKCI.2025.37.5.589/fig10.png

4. 현장 적용을 통한 철근 간격 측정 기법 검증

4.1 현장 계측 대상 및 방법

본 연구에서는 제안한 depth camera를 활용한 철근 간격 계측방법의 정확성과 현장 적용 가능성을 검증하기 위해 건설현장에서의 적용을 수행하였다. 적용 대상 현장은 철근콘크리트조 구조물로, 지하 1층 기초슬래브와 지상 3층 기둥에 대해 계측을 수행하였다(Fig. 11).

Depth camera를 활용하여 철근 간격을 계측하고, 줄자를 통한 실측값과의 비교를 통해 측정 오차를 분석하였다. 실측값은 동일 위치에서 3회 계측 후 평균값을 사용하였으며, 슬래브의 경우 총 16개 구간, 기둥 철근의 경우 총 14개의 구간에 대해 수평 및 수직 간격을 측정하였다.

Fig. 11 Rebar spacing measurement target

../../Resources/KCI/JKCI.2025.37.5.589/fig11.png

4.2 Depth camera 기반 철근 간격 측정 결과

본 연구에서는 제안한 측정법의 유효성을 검증하기 위해 건설현장의 슬래브 및 기둥 철근을 대상으로 철근 간격 측정을 수행하였다. 측정은 각 구간에 대해 제안된 두 가지 방법과 기존 정면 계측 방식으로 각각 측정한 후, 줄차를 이용한 실측값과의 비교를 통해 정확도를 평가하였다. 본 연구에서 정의한 정확도(Accuracy)는 다음과 같이 표현할 수 있다.

(2)
$Accuracy(\%)\\ =\left(1-\dfrac{| Mearsured \;Value-Actual \;Value |}{Actual \;Value}\right)\times 100$

여기서, Measured Value는 depth camera를 활용하여 계측한 철근 간격을 의미하고, Actual Value는 줄자를 이용하여 계측한 철근 간격을 의미한다.

일반적인 정면 계측 방식으로 측정한 결과는 Fig. 12에 나타내었다. Fig. 12의 X축은 각각의 측정 항목을 의미하며, Slab-H는 슬래브 철근의 수평 간격, Column-H는 기둥 철근의 수평 간격, Slab-V는 슬래브 철근의 수직 간격, Column-V는 기둥 철근의 수직 간격을 나타낸다. Y축은 각 항목에 산포된 점들은 depth camera를 활용한 간격 측정 정확도를 의미한다. 부재에 따라 슬래브 철근의 경우 16개, 기둥 철근의 경우 14개 구간에서 계측된 간격 측정 정확도를 시각적으로 보여준다. 슬래브 철근의 수평 간격(Slab-H) 및 기둥 철근의 수평 간격(Column-H)의 경우, 모든 계측 구간에서 측정이 가능하였다. 각각 최소 93 %, 95 %의 정확도를 보이며, 최대 5 mm, 12 mm의 오차를 보인다. 슬래브 철근 수직 간격(Slab-V)과 기둥 철근 수직 간격(Column-V)의 경우 각각 최소 96 %, 92 % 이상의 정확도를 보이나, 각각 16개 측정 구간 중 15개 구간, 14개 구간 중 5개 구간에 대해서 계측이 불가능하였다. 이는 depth camera의 특성으로 나타나는 3D 포인트 클라우드의 데이터 누락으로 인한 결과로 판단된다.

이에 따라 본 연구에서는 동일한 구간을 대상으로 철근 교차점 기준 계측(intersection)과 depth camera 수평 기울기 조정 방식(adjust tilt)의 두 가지 계측 방법을 적용하고, 정확도 및 계측 가능 구간을 비교하였다. Fig. 13은 제안된 두 계측 방법을 적용한 결과를 나타낸다. Fig. 13의 X축의 항목인 Slab-V Intersection, Slab-V Adjust tilt, Column-V Intersection, Column-V Adjust tilt은 측정 대상(슬래브 수직간격, 기둥 수직간격), 계측방법(교차점 계측, 기울기 조정)을 조합하여 표기한 것이다. Y축은 각 측정 항목의 철근 간격 측정 정확도를 나타낸다. 교차점 기준 계측 방식의 경우 슬래브 철근의 수직 간격 정확도는 최소 93 % 이상, 기둥 철근의 수직 간격 정확도는 최소 95 % 이상으로 나타났다. 수평 기울기 조정 방식의 경우 슬래브 철근과 기둥 철근 간격 모두 95 % 이상의 정확도를 보인다.

두 방법을 통해 계측한 철근 간격의 최대 오차는 슬래브 철근의 경우 11 mm, 기둥 철근의 경우 8 mm를 보인다. 또한, 두 가지 계측 방식의 경우 모든 계측 구간에서의 측정이 가능하였으며, 이는 3D 포인트 클라우드의 누락 문제를 효과적으로 해결할 수 있음을 보인다. 일반적인 정면 측정 방식에서 계측할 수 없었던 구간에 대해서도 안정적인 측정이 가능하였으며, 전 구간에 대한 높은 정확도를 함께 확보함으로써, 제안한 기법이 미탐지 문제와 정확도 저하 문제를 동시에 개선하였음을 실험적으로 입증하였다. 수직 및 수평 철근 간격을 포함한 각 계측방법에 대한 정확도의 평균, 최솟값, 최댓값, 표준편차, 계측 가능 구간 등 구체적인 정량 분석 결과는 Table 3에 제시하였다.

Fig. 12 Accuracy of rebar spacing measurements using depth camera in conventional frontal view

../../Resources/KCI/JKCI.2025.37.5.589/fig12.png

Fig. 13 Accuracy of vertical rebar spacing using intersection and tilt-adjusted methods

../../Resources/KCI/JKCI.2025.37.5.589/fig13.png

Table 3 Statistical summary of rebar spacing measurements using the proposed methods

Min (%)

Max (%)

Average (%)

Standard deviation (%)

Measured sections / Total Sections

Slab-H

93

99

97

2

16/16

Slab-V

96

96

96

0

1/16

Slab-V Intersection

93

99

97

2

16/16

Slab-H Intersection

94

88

98

1

16/16

Slab-V Adjust tilt

95

99

98

1

16/16

Slab-H Adjust tilt

96

99

98

1

16/16

Column-H

95

99

97

2

14/14

Column-V

92

97

95

2

9/14

Column-V Intersection

95

99

97

1

14/14

Column-H Intersection

95

98

97

1

14/14

Column-V Adjust tilt

95

99

97

1

14/14

Column-H Adjust tilt

96

99

98

1

14/14

5. 토 의

본 연구에서는 depth camera의 특성으로 인한 3D 포인트 클라우드 누락 현상을 해결하기 위한 두 가지 계측 기법을 제안하였다. 실제 건설현장에서의 계측 실험 결과, 일반적인 정면 계측 방식에서는 수평 배근 철근에서 다수의 누락 구간이 발생하였으나, 제안한 교차점 기준 계측 방식과 수평 기울기 조정 방식 모두 전 구간 계측이 가능하였다. 제안된 계측 방법의 간격 측정 오차는 최대 7 %로 나타났으며, 이는 일반적으로 철근 간격 감리에서 요구되는 허용오차 범위인 10 % 이내를 충족하는 수준이다.

그러나, 일반적인 건설현장의 경우 실외 환경으로 구성되어 있어 강한 태양광과 그로 인한 음영으로 인해 이미지 심도 디테일이 떨어지게 된다. 이에 실외 환경에 따라 계측되는 데이터의 일관성이 떨어져 철근 간격 측정 정확도에 영향을 미치게된다. 본 연구에서 사용된 depth camera는 Stereo depth estimation 방식과 구조광 방식을 함께 사용하여 3D 포인트 클라우드의 보정을 수행하지만, 태양광의 적외선은 구조광 센서의 성능을 저하시키는 주요 요인으로 정확도를 저하시킨다(Gupta et al. 2013). 이에 다음과 같은 두 가지 개선방법을 통해 실외환경에서의 데이터 일관성을 유지할 수 있다.

1) Fig. 14와 같이 태양광이 강한 경우 이미지는 과노출되어 밝게 나타나며, 태양광이 약한 경우 이미지는 저노출되어 어둡게 표현된다. 과노출과 저노출로 인해 이미지의 특징점 추출의 어려움을 개선하기 위해 셔터스피드를 조절하여 적절한 노출을 확보할 수 있다. 이를 통해 이미지의 명암 대비가 개선되어 특징점 추출이 용이해지며, 다양한 조도 환경에서도 일관된 데이터 수집이 가능하다. 본 실험에서는 태양광이 강한 경우 셔터스피드를 3 ms로 설정하여 과노출을 방지하였으며, 흐린 날씨에서는 5~10 ms로 조정하여 계측을 수행하였다.

2) D455의 IR Projector의 강도를 높여 실외 환경에서 태양광의 영향을 최소화할 수 있다. IR Projector는 구조광 센서를 통해 적외선을 투사하여 객체의 깊이를 계산하지만, 태양광의 적외선과의 혼선을 일으키는 것이 문제점으로 작용한다. IR Projector의 강도를 조절함으로써 혼선을 줄여 보다 정확한 3D 포인트 클라우드 데이터를 수집할 수 있다. 본 실험에서는 야외 환경에서 IR Projector의 강도를 최댓값인 360 mW로 설정하여 안정적인 데이터 계측을 수행하였다.

3) 태양광 강도가 매우 높은 환경에서는 셔터스피드 조정 및 IR Projector 조절만으로는 데이터 품질 확보에 한계가 존재할 수 있다. Fig. 15(a)와 같이 카메라 기울기, 셔터스피드, IR Projector 조정을 하였음에도 불구하고, 강한 직사광선 아래에서는 데이터 품질 저하가 발생하는 한계가 확인되었다. 따라서, 극한 실외 조건에서는 추가적인 광 차폐 방안이 필요할 것으로 판단된다. 예를 들어, 카메라 렌즈 주변에 후드(hood)를 설치하여 직사광선으로 인한 과도한 빛 유입을 차단하고 광원 간섭을 최소화할 수 있다. 이를 통해 Fig. 15(b)와 같이 안정적인 3D 포인트 클라우드 계측이 가능할 것으로 기대된다.

Fig. 14 Effects of sunlight on image exposure

../../Resources/KCI/JKCI.2025.37.5.589/fig14.png

Fig. 15 Improvement of 3D point cloud quality using light shielding

../../Resources/KCI/JKCI.2025.37.5.589/fig15.png

6. 결 론

본 연구에서는 depth camera의 구조적 특성으로 인해 발생할 수 있는 3D 포인트 클라우드 누락 문제를 해결하고, 철근 간격을 안정적으로 측정할 수 있는 계측 기법을 제안하였다. 이를 위해 2D 이미지와 3D 포인트 클라우드 간의 대응 관계를 수식화하고, 데이터 형식을 재구성하여 철근 간격 측정을 위한 전처리 알고리즘을 개발하였다. 또한, 반복되는 철근 배근 형상으로 인해 발생하는 대응점 매칭 실패 문제를 분석하였다. 이를 보완하기 위해 교차점 기반 측정 방법과 카메라 기울기 조정 방식을 제안하여, depth camera의 구조적 한계를 극복하였다. 제안한 계측 기법의 성능 검증을 위해 건설현장의 슬래브 및 기둥 철근을 대상으로 실측값과 비교 분석을 수행하였으며, 그 결과 다음과 같은 결론을 도출할 수 있다.

1) Depth camera 기반 철근 간격 계측의 주요 오차 원인을 실증적으로 규명하였다. 반복적인 철근 배근 형상과 광원에 의한 음영이 depth camera의 대응점 추출에 부정적인 영향을 미치며, 이로 인해 수평 배근 철근의 3D 포인트 클라우드가 누락될 수 있음을 현장 데이터를 통해 확인하였다. 이는 depth camera의 구조적 원리에 기인한 계측 한계로, 가로로 배치된 부재에 적용 시 오류 가능성을 시사한다.

2) 3D 포인트 클라우드 누락 문제를 보완할 수 있는 계측 방법을 제시하였다. 철근 교차점 기준 계측 방식과 수평 기울기 조정 방식은 기존 정면 계측 방식의 구조적 한계를 보완하며, 반복 형상과 조도 조건에 관계없이 안정적인 계측이 가능함을 실험을 통해 입증하였다. 특히, 두 방식 모두 3D 포인트 클라우드 손실을 최소화하고, 측정 불가능 구간을 최소화하는 효과를 나타냈다.

3) 제안한 두 가지 측정 기법의 성능 검증 결과, 모든 측정 구간에서 안정적인 계측이 가능하였으며, 간격 측정 오차는 최대 7 %로, 일반적인 감리 기준에서 요구되는 허용 오차 이내임을 확인하였다. 이를 통해 제안 기법의 현장 적용에 대한 실효성을 입증하였다.

결론적으로, 본 연구에서 제안한 depth camera 기반 철근 간격 측정 기법은 기존 계측 방식의 한계를 보완하였으며, 원격 구조 감리 수행 시 현장 방문 계측과 동등한 수준의 높은 정밀도를 제공할 수 있음을 확인하였다. 이를 통해 감리 업무의 효율성을 높일 수 있으며, 현장에 직접 방문하지 않고도 철근 배근 상태를 실시간으로 모니터링하고 관리할 수 있는 효과적인 도구로 활용될 수 있음을 입증하였다. 또한, 본 연구는 디지털 기반 비대면 감리의 가능성을 제시하며, 감리자가 현장에 직접 방문하지 않고도 데이터를 원격으로 검토하고 필요한 조처를 할 수 있는 환경을 제공한다는 점에서 의의가 있다. Depth camera를 포함한 디지털 계측 장비는 비대면 감리 체계 구축에 핵심적인 역할을 수행할 수 있으며, 이를 통해 감리의 효율성과 신뢰성을 높이는 데 기여할 것으로 기대된다. 향후 연구에서는 본 연구에서 제시한 측정 기법을 기반으로 적용성을 확장하고, 간격 측정 자동화 기능을 통합함으로써 원격 기반의 비대면 감리 시스템 구현에 기여할 수 있을 것이다. 이를 통해 감리자의 현장 의존도를 줄이고, 건설 현장 관리의 디지털 전환을 위한 실질적 기반 기술로 발전할 수 있을 것으로 기대된다.

감사의 글

본 연구는 국토교통부 디지털 기반 건축시공 및 안전감리 기술개발 사업의 연구비 지원(RS-2022-00143493)과 정부(과학기술정보통신부)의 재원으로 한국연구재단(RS-2023-00210317) (RS-2024-00409719)의 지원과 정부(교육부)의 재원으로 한국연구재단(RS-2025-25419239)의 지원에 의해 수행되었습니다. 이에 감사드립니다.

References

1 
ANCnews (2018) Available at: http://www.ancnews.kr/news/articleView.html?idxno=6403/ Accessed 12 September 2025.URL
2 
Clarke, T. A., and Fryer, J. G. (1998) The Development of Camera Calibration Methods and Models. The Photogrammetric Record 16(91), 51-66.DOI
3 
Gupta, M., Yin, Q., and Nayar, S. K. (2013) Structured Light in Sunlight. 2013 IEEE International Conference on Computer Vision, 545-552.URL
4 
Hartley, R., and Zisserman, A. (2003) Multiple View Geometry in Computer Vision. Cambridge University Press, Cambridge, UK.URL
5 
Jeong, B. H. (2022) Gwangju Apartment Collapse: A Tragedy Caused by ‘Hurry-Up Construction’. Kwanhun Journal 162, 179-186. (In Korean)URL
6 
Kardovskyi, Y., and Moon, S. (2021) Artificial Intelligence Quality Inspection of Steel Bars Installation by Integrating Mask R-CNN and Stereo Vision. Automation in Construction 130, 103850.DOI
7 
Li, Y., Lu, Y., and Chen, J. (2021) A Deep Learning Approach for Real-Time Rebar Counting on the Construction Site Based on YOLOv3 Detector. Automation in Construction 124, 103602.DOI
8 
Lucas, B. D., and Kanade, T. (1981) An Iterative Image Registration Technique with an Application to Stereo Vision. IJCAI'81: Proceedings of the 7th International Joint Conference on Artificial Intelligence 2, 674-679.URL
9 
Luong, Q. T., and Faugeras, O. D. (1996) The Fundamental Matrix: Theory, Algorithms, and Stability Analysis. International Journal of Computer Vision 17(1), 43-75.DOI
10 
MOLIT (2023) The 7th Basic Plan for Construction Technology Promotion. Ministry of Land, Infrastructure and Transport, Korea. Available at: https://molit.go.kr/print_portal_2016.jsp?src_folder=content-area&minwon / Accessed 12 September 2025.URL
11 
Nister, D. (2004) An efficient Solution to the Five-Point Relative Pose Problem. IEEE Transactions on Pattern Analysis and Machine Intelligence 26(6), 756-770.URL
12 
Shin, Y., Heo, S., Han, S., Kim, J., and Na, S. (2021) An Image- Based Steel Rebar Size Estimation and Counting Method Using a Convolutional Neural Network Combined with Homography. Buildings 11(10), 463.DOI
13 
Woo, U., Lee, M., Lee, T., Choi, H., Kang, S. M., and Choi, K. K. (2025) Real-Time Rebar Spacing Measurement System for Quality Control in Construction. Automation in Construction 171, 106012.DOI
14 
Yuan, X., Smith, A., Moreu, F., Sarlo, R., Lippitt, C. D., Hojati, M., Alampalli, S., and Zhang, S. (2023) Automatic Evaluation of Rebar Spacing and Quality Using LiDAR Data: Field Application for Bridge Structural Assessment. Automation in Construction 146, 104708.DOI
15 
Yuan, X., Smith, A., Sarlo, R., Lippitt, C. D., and Moreu, F. (2021) Automatic Evaluation of Rebar Spacing Using LiDAR Data. Automation in Construction 131, 103890.DOI
16 
Zhu, Y., Tang, C., Liu, H., and Huang, P. (2020) End-Face Localization and Segmentation of Steel Bar Based on Convolution Neural Network. IEEE Access : Practical Research, Open Solutions 8, 74679-74690.URL