ai위험성 2

오픈AI의 새로운 안전 정책, "이론보다 현실"... 과연 올바른 선택일까?

"AI 모델을 먼저 출시하고 문제는 나중에 해결하겠다고? 마치 불 속에 뛰어들어 화상 입는 법을 배우겠다는 것 같은데..."  오픈AI가 최근 AI 안전에 대한 새로운 접근법을 발표했어요. 요약하자면 "모델을 먼저 출시한 다음 문제를 해결하는 것이 더 효과적"이라는 입장이죠. 실험실에서 아무리 테스트를 해봐도 실제 세계에서 벌어지는 모든 상황을 예측할 수 없으니, 빠르게 배포하고 문제가 생기면 그때 고치겠다는 겁니다.  처음 이 소식을 접했을 때 드라마 '스타트업'에서 주인공이 충분한 테스트 없이 서비스를 출시했다가 대형 사고가 났던 장면이 떠올랐어요. 그때 서비스는 단순한 앱이었지만, AI는 그보다 훨씬 복잡하고 예측하기 어려운 기술인데... 과연 이런 접근이 맞는 걸까요?  오픈AI의 새로운 안전 정..

IT news 2025.03.09

빌 게이츠 曰, "AI도 핵전쟁만큼 위험하다고?"

"아니, AI가 핵전쟁이랑 같은 급이라고요? 이거 실화입니까?" 요즘 세상이 점점 재미있어지고 있습니다. 예전에는 "미래에는 로봇이 우리 일을 대신해줄 거야!"라며 신나게 상상했는데, 지금은 "AI가 인류를 위협할 수도 있다!"라는 말이 심심찮게 들려옵니다. 그런데 말입니다… 이 말을 한 사람이 다름 아닌 빌 게이츠라고요?! 맞습니다. 빌 게이츠가 뭐라고 했냐면, "핵전쟁, 기후 변화, 생물학 테러, 팬데믹… 그리고 AI도 여기에 추가해야 한다!" 라고 했어요. 와… AI가 저런 무시무시한 리스트에 들어갈 줄이야! 이제 AI도 "전 세계를 뒤흔들 재앙급 위험 요소"라는 거죠. 1. AI가 핵전쟁만큼 위험하다니… 이게 무슨 소리? 보통 AI 하면 뭐가 떠오르세요? "시리야, 날씨 어때?" "알렉사, 음악 ..

IT news 2025.02.23