토요일, 5월 4, 2024

AI가 과학에 대한 자신감을 돕거나 방해할 것인가?

Must read

Ae Dong-Yul
Ae Dong-Yul
"트위터를 통해 다양한 주제에 대한 생각을 나누는 아 동율은 정신적으로 깊이 있습니다. 그는 맥주를 사랑하지만, 때로는 그의 무관심함이 돋보입니다. 그러나 그의 음악에 대한 열정은 누구보다도 진실합니다."


~에 의해
존 휘틀

2024년 4월 23일
6분 읽기







지난해에는 생성적 AI 도구가 등장했습니다. 채팅GPT, 그리고 OpenAI의 비디오 제작 도구 소라 – 대중의 상상력을 사로잡았다.

필요한 모든 것 인공지능 실험 시작 인터넷 연결과 웹 브라우저입니다. 인간 비서와 마찬가지로 AI와 대화하고, 글을 쓰고, 사진이나 비디오를 보여주거나 위의 모든 것을 통해 AI와 상호 작용할 수 있습니다.



인공 지능에 대한 대중의 지식이 증가함에 따라 과학자들이 인공 지능을 어떻게 사용하는지에 대한 대중의 조사가 더욱 강화될 것입니다.
© 언스플래시

이 능력은 일반 대중에게는 완전히 새로운 영역을 나타내지만, 과학자들은 수년 동안 AI를 도구로 사용해 왔습니다.

그러나 AI에 대한 대중의 지식이 증가함에 따라 과학자들이 AI를 어떻게 사용하는지에 대한 대중의 조사가 더욱 강화될 것입니다.

AI는 이미 과학에 혁명을 일으켰습니다. 컴퓨터 과학뿐만 아니라 화학, 물리학, 심리학, 환경 과학 등 모든 과학 작업의 6%가 AI를 활용하고 있습니다.

세계에서 가장 권위 있는 과학 저널 중 하나인 Nature는 사이트에 ChatGPT를 포함시켰습니다. 2023년 자연의 상위 10개 목록 세계에서 가장 영향력 있는 일부 과학자들, 그리고 그때까지는 오로지 인간 과학자들만이 있었습니다.

과학에서 인공지능을 활용하는 방법은 두 가지입니다.

어느 정도 AI는 과학자들의 생산성을 높일 수 있습니다.

Google DeepMind가 380,000개 이상의 새로운 물리적 화합물로 구성된 AI 생성 데이터 세트를 출시했을 때 Lawrence는… 버클리 연구소는 인공지능을 사용했다 인간이 달성할 수 있는 것보다 더 큰 규모로 화합물 합성 실험을 수행합니다.

그러나 AI는 훨씬 더 큰 잠재력을 가지고 있습니다. 즉, 과학자들이 다른 방법으로는 결코 이루어지지 않았을 발견을 할 수 있게 해줍니다.

최초로 발견한 인공지능 알고리즘이었습니다. 뇌 활동 데이터의 신호 패턴 이는 가장 경험이 풍부한 신경과 전문의조차도 복제할 수 없는 위업인 간질 발작의 시작을 나타냅니다.

과학 분야에서 AI를 사용한 초기 성공 사례를 통해 일부 사람들은 과학자들이 일상 업무의 일부로 AI 과학 보조원과 협력하는 미래를 구상하게 되었습니다.

이 미래는 이미 여기에 있습니다. CSIRO 연구원들은 인공 지능 과학 에이전트를 실험하고 있으며 현장 조사 중에 과학적 작업을 수행하기 위해 음성 언어 지침을 따를 수 있는 로봇을 개발했습니다.

현대 인공지능 시스템은 놀라울 정도로 강력하지만, 특히 소위 말하는 인공지능 시스템은 더욱 그렇습니다. 인공 일반 지능 도구 ChatGPT 및 Gemini와 마찬가지로 단점도 있습니다.

생성 AI 시스템은 다음과 같은 위험에 취약합니다.환각“그들이 사실을 구성하는 곳.

아니면 편견이 있을 수도 있습니다. Google Gemini는 미국 건국의 아버지들을 다양한 그룹으로 묘사합니다. 이는 과잉수정 편향의 흥미로운 사례입니다.

AI가 결과를 조작할 위험이 매우 현실적이며 이러한 일이 이미 발생했습니다. 이 작업을 수행하기 위한 생성 AI 도구를 얻는 것은 상대적으로 쉽습니다. 존재하지 않는 출판물 인용.

더욱이 많은 AI 시스템은 자신이 수행하는 출력을 생성하는 이유를 설명할 수 없습니다.

이것이 항상 문제가 되는 것은 아닙니다. AI가 새로운 가설을 만들어 일반적인 과학적 방법으로 테스트하면 아무런 해가 없습니다.

그러나 일부 응용 프로그램의 경우 설명이 부족하여 문제가 될 수 있습니다.

결과의 복제는 과학의 기본 원칙이지만 AI가 결과에 도달하기 위해 취하는 단계가 모호한 상태로 남아 있으면 복제와 검증이 불가능하지는 않더라도 어려워집니다.

이는 생산된 과학에 대한 사람들의 신뢰를 손상시킬 수 있습니다.

여기서는 일반 인공지능과 좁은 인공지능을 구별해야 합니다.

Narrow AI는 특정 작업을 수행하도록 훈련된 인공 지능입니다.

Narrow AI는 이미 큰 발전을 이루었습니다. 구글 딥마인드 알파 폴드 이 모델은 과학자들이 단백질 구조를 예측하는 방법에 혁명을 일으켰습니다.

그러나 밤하늘에서 새로운 은하계를 발견하기 위해 AI를 사용하는 CSIRO, AI를 개발하기 위해 노력하는 IBM Research 등 잘 알려지지 않은 다른 많은 성공 사례도 있습니다. 그는 케플러의 행성 운동 제3법칙을 재발견했습니다.아니면 유능한 AI를 만드는 삼성 AI 노벨상 수상 과학적 성과 재현.

과학에 적용되는 좁은 AI에 관해서는 신뢰도가 여전히 높습니다.

AI 시스템, 특히 기계 학습 방법을 기반으로 하는 시스템은 주어진 작업에서 100% 정확도를 거의 달성하지 못합니다. (실제로 기계 학습 시스템은 일부 작업에서 인간보다 성능이 뛰어나고 인간은 많은 작업에서 AI 시스템을 능가합니다. AI 시스템을 사용하는 인간은 일반적으로 혼자 일하는 인간보다 성능이 뛰어나고 혼자 일하는 AI보다 성능도 뛰어납니다. 이 사실에 대한 다음과 같은 상당한 과학적 증거가 있습니다. 이 연구.)

결과를 확인하고 해석하는 전문 과학자와 함께 일하는 AI는 완벽하게 합법적인 작업 방식입니다. 널리 보임 그들은 혼자 일하는 인간 과학자나 AI 시스템보다 더 나은 성능을 발휘합니다.

반면 일반 AI 시스템은 특정 도메인이나 사용 사례에 국한되지 않고 광범위한 작업을 수행하도록 훈련되었습니다.

예를 들어 ChatGPT는 셰익스피어 소네트를 생성하고, 저녁 식사 요리법을 제안하고, 학술 문헌을 요약하거나, 과학적 가설을 생성할 수 있습니다.

인공 일반 지능의 경우 환각과 편견의 문제는 더욱 심각하고 광범위합니다. 이는 AGI가 과학자에게 유용하지 않다는 의미는 아니지만 주의해서 사용해야 합니다.

이는 과학자들이 특정 시나리오에서 AI를 사용할 때의 위험을 이해하고 평가하고 이를 사용하지 않을 때의 위험과 비교해야 함을 의미합니다.

이제 과학자들은 일반적인 인공 지능 시스템을 일상적으로 사용합니다. 논문 작성을 돕기 위해학술 문헌을 검토하고 실험 계획을 준비하는 데 도움을 줍니다.

인간 과학자가 결과를 당연하게 여긴다면 이러한 과학 보조원과 관련하여 한 가지 위험이 발생할 수 있습니다.

물론, 부지런하고 잘 훈련된 과학자들은 이런 일을 하지 않을 것입니다. 하지만 많은 과학자들은 출판 아니면 멸망이라는 험난한 산업에서 살아남기 위해 노력하고 있습니다. 과학 사기는 이미 증가하고 있다인공지능이 없어도 말이죠.

AI는 고의적인 기술 오용을 통해 또는 과학자들이 AI가 상황을 만들어낸다는 사실을 깨닫지 못하기 때문에 순수한 무지를 통해 새로운 수준의 과학적 위법 행위로 이어질 수 있습니다.

좁은 AI와 일반 AI 모두 과학적 발견을 발전시킬 수 있는 큰 잠재력을 가지고 있습니다.

이론적으로 일반적인 과학 작업 흐름은 초점을 맞출 문제를 이해하고, 해당 문제와 관련된 실험을 수행하고, 실제 영향을 위한 결과를 활용하는 세 단계로 구성됩니다.

AI는 이 세 단계 모두에서 도움을 줄 수 있습니다.

그러나 큰 경고가 있습니다. 현재 AI 도구는 진지한 과학 작업에서 순진하고 즉시 사용 가능한 사용에는 적합하지 않습니다.

AI와 과학 모두에 대한 대중의 신뢰는 연구자들이 과학적 방법을 지원하기 위해 차세대 AI 도구를 책임감 있게 설계, 구축 및 사용하는 경우에만 얻고 유지될 수 있습니다.

올바르게 수행하는 것은 그만한 가치가 있습니다. AI를 사용하여 과학을 변화시킬 수 있는 가능성은 무한합니다.

Google DeepMind의 유명한 창립자 데미스 허사비스(Demis Hassabis)는 다음과 같이 유명하게 말했습니다.: “보다 유능하고 일반적인 AI를 안전하고 책임감 있게 구축하려면 우리 시대의 가장 어려운 과학 및 엔지니어링 문제를 해결해야 합니다.”

그 반대의 결론도 사실입니다. 우리 시대의 가장 어려운 과학적 과제를 해결하려면 더 유능하고 안전하며 책임감 있는 인공 일반 지능을 구축해야 합니다.

호주 과학자들이 이에 대해 연구하고 있습니다.

이 기사는 원래 게시되었습니다. 360 정보 크리에이티브 커먼즈 라이선스에 따라. 읽기 원본 기사.

John Whittle 교수는 데이터 과학 및 디지털 기술 분야의 호주 국립 연구 개발 센터인 CSIRO의 Data61 이사입니다. 그는 Responsible AI: 신뢰할 수 있는 AI 시스템 구축을 위한 모범 사례의 공동 저자입니다.

Stefan Harrer 박사는 CSIRO의 Data61에서 AI for Science 프로그램의 이사로 AI를 사용하여 과학적 발견을 가속화하는 것을 목표로 하는 글로벌 혁신, 연구 및 상용화 프로그램을 이끌고 있습니다. 그는 Lancet 기사 “주의가 필요한 전부는 아닙니다: 의료 및 의학에서 대규모 언어 모델을 윤리적으로 사용하는 복잡한 사례”의 저자입니다.

Stefan Harrer는 과학 분야의 인공 지능 사용과 관련하여 미국 및 국제 특허를 여러 개 취득한 발명가입니다.












Latest article