일요일, 4월 28, 2024

딥러닝을 통한 회복 혁신

Must read

Ae Dong-Yul
Ae Dong-Yul
"트위터를 통해 다양한 주제에 대한 생각을 나누는 아 동율은 정신적으로 깊이 있습니다. 그는 맥주를 사랑하지만, 때로는 그의 무관심함이 돋보입니다. 그러나 그의 음악에 대한 열정은 누구보다도 진실합니다."

전자기장인 빛은 진폭과 위상이라는 두 가지 기본 구성 요소를 갖습니다. 그러나 일반적으로 광자-전자 변환(예: 전하 결합 장치 센서 및 인간의 눈)에 의존하는 광검출기는 제한된 샘플링 주파수로 인해 조명 필드의 위상을 캡처할 수 없습니다. 다행스럽게도 광 필드가 전파됨에 따라 위상 지연으로 인해 진폭 분포도 변경됩니다. 따라서 전파되는 광장의 진폭을 기록한 다음 해당 위상을 계산할 수 있으며 이를 위상 복구라고 합니다. 일반적인 위상 복구 방법에는 홀로그래피/간섭계, Schack-Hartmann 파면 감지, 밀도 방정식 전달 및 최적화 기반 방법(위상 복구)이 포함됩니다. 공간적, 시간적 해상도, 계산 복잡성, 적용 범위 측면에서 고유한 단점이 있습니다. 최근에는 진정한 인공 지능(AI)을 향한 중요한 단계로서 심층 신경망을 통해 구현되는 경우가 많은 딥 러닝이 복구 단계에서 전례 없는 성능을 달성했습니다.

Light Science & Application에 발표된 새로운 리뷰 논문에서 홍콩 대학교, 노스웨스턴 폴리테크닉 대학교, 홍콩 중문 대학교, 광동 기술 대학교 및 MIT의 과학자들은 다음 네 가지 딥 러닝 단계 복구에 대한 다양한 접근 방식을 검토합니다. 관점:

• 위상 복구를 위한 딥 러닝 전처리: 신경망은 위상 복구 전에 슈퍼 픽셀 해상도, 노이즈 감소, 3D 이미지 생성 및 자동 초점과 같은 강도 측정의 일부 전처리를 수행합니다.

• 위상 복구를 위한 처리 중 딥러닝: 신경망은 지도 학습 또는 비지도 학습 모드를 통해 직접 위상 복구를 수행하거나 물리적 모델 또는 물리 기반 알고리즘과 함께 위상 복구 프로세스에 참여합니다.

• 위상 복구를 위한 딥러닝 후처리: 신경망은 위상 복구 후 노이즈 감소, 해상도 개선, 키스톤 보정, 위상 언래핑 등의 후처리를 수행합니다.

• 위상 처리를 위한 딥 러닝: 신경망은 분할, 분류, 이미징 모델 변환과 같은 특정 애플리케이션을 위해 복구된 위상을 사용합니다.

독자들에게 복구 단계에 대한 자세한 내용을 알리기 위해 실시간 업데이트 리소스도 제공했습니다(https://github.com/kqwang/phase-recovery).

회복 단계의 다양한 프로세스에 딥러닝을 적용하면 전례 없는 효과를 가져올 뿐만 아니라 예측할 수 없는 위험도 발생합니다. 일부 방법은 유사해 보일 수 있지만 발견하기 어려운 차이점이 있습니다. 이 학자들은 일부 유사한 접근 방식 간의 차이점과 연관성을 지적하고 단계적 복구의 딥 러닝과 물리적 모델을 최대한 활용하는 방법에 대한 제안을 제공합니다.

“uPD(Untrained Physical-Driven) 방식은 전제 조건인 많은 압축 이미지가 없지만 각 추론에 대해 많은 반복이 필요하다는 점에 유의해야 합니다. 반면 tPD(Trained Physical-Driven) 방식은 훈련된 신경망.” “한 번만 가능하지만 사전 훈련을 위해 많은 수의 집중적인 이미지가 필요합니다.”

“G에프 벡터 상수인데, 이는 신경망에 대한 입력이 샘플과 독립적이기 때문에 PD 접근 방식처럼 신경망을 사전 훈련할 수 없다는 의미입니다.”라고 물리학에서 이전 구조 네트워크 전략을 발표하면서 말했습니다.

“학습 기반 심층 신경망은 엄청난 잠재력과 효율성을 가지고 있는 반면 전통적인 물리 기반 방법은 더 안정적입니다. 따라서 우리는 특히 현실 세계를 잘 모델링하는 사람들에게 심층 신경망과 물리적 모델의 통합을 권장합니다. 선두 심층 신경망이 블랙박스처럼 모든 작업을 수행하도록 하는 것보다 말이죠.” 과학자들은 제안합니다.

/일반 출시. 원래 조직/저자의 이 자료는 본질적으로 연대순일 수 있으며 명확성, 스타일 및 길이를 위해 편집되었습니다. Mirage.News는 기업의 입장이나 당사자를 받아들이지 않으며 여기에 표현된 모든 의견, 입장 및 결론은 전적으로 저자의 것입니다. 전체 내용은 여기에서 확인하세요.

Latest article