hihd
5,000+ Views

인공지능(AI)의 윤리 문제 [3분 인문학]

앞으로 오는 시대는 차가 스스로 운전합니다.
그런 때가 되면 거기서도 윤리적인 문제가 나와요.
차 사고를 불가피하게 피할 수 없을 때, 뭘 우선시해야 되는지
로봇이 판단해야 된단 말이에요.
인간 같으면 직감적으로 “쟤를 살려야 된다.
쟤는 어떻게 해야 된다.”이걸 로봇이 해야 되잖아요.
결국 윤리의 문제는 앞으로 계속 인공지능이 개발되더라도
인간이 윤리에 대한 답을 내리면서
또 로봇에까지 가르쳐 줘야 되는 그런 부분이 중요한 문제가 되니까
학당에서 하는 이런 양심운동이 별거 아닌 것 같지만
너무나 지당한 얘기, 양심 얘기하는 것 같지만 그 효용이 어마어마해요.
앞으로 모든 문명의 기초가 양심으로 짜져야 됩니다.
안 그러면 무섭죠. 로봇이 발전할수록 무섭죠.
사실 우리도 지금 통제가 안 되는데
우리보다 더 머리 좋은 인공지능을 통제할 수 있단 말이냐.
이런 게 지금 두려우신 거고 일자리가 지금 태반이 날아갈 텐데
인공지능보다 더 일 잘할 자신 없으니까.
그럼 그 인간은 뭘 해야 되느냐?
그런 문제가 앞으로 계속 나올 거니까 지금부터 고민해 가셔야 돼요.
저는 항상 간단합니다. 제가 정답이 있는 게 아니라
어떤 문제가 우리한테 닥치건 양심에 자명하게 하나씩 풀어갈 뿐이에요.
- 홍익학당 윤홍식
양심분석을 해야하는 이유->
Comment
Suggested
Recent
Cards you may also be interested in