아이작 아시모프는 로봇공학 3원칙을 만들었음.
1. 로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.
2. 로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.
3. 로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다.
그런데... 수퍼AI가 실제로 만들어진다면, 저런 원칙을 지킬까?
저는 인류가 수퍼AI라는 판도라의 상자를 열어서 멸망할 것 같음..
적어도 암컷과 수컷 간의 DNA 교환으로 진화하는 유기체 생물인 인간은 멸종할 것 같음.
조금 대비하면 모두 전뇌한 채로 의체를 입고 돌아다니는 공각기동대 같은 세상이 될 것이고,
조금 삐끗하면, 매트릭스나 터미네이터 같은 디스토피아 세상이 오는거지 뭐...
그것도 아니면 한 방에 빵~ 지구 멸망 gogo씽
'혼자서 수다 떨기' 카테고리의 다른 글
아이튠즈로 아이폰에 음악 넣다가 토 나오겠음. (0) | 2015.12.07 |
---|---|
스맛폰 새로 사야하는데, 삼까라서 갤럭시는 싫고, 헬쥐는 더 싫고.. (0) | 2015.09.10 |
정의로운 대한민국 (0) | 2015.04.01 |
아이폰4 사망 & 자가 수리 (0) | 2014.11.20 |
신해철.. (0) | 2014.10.28 |