아이디어!2018.08.26 21:19

딸래미가 보는 터닝메카드를 보면서 든 생각



만약에 다른 세계로 사람을 보내는데 있어서 아이를 보내는게 유리한 이유

1. 말이 어색해도 아이니까~ 라고 넘어갈수 있음 (각종 실수에 대응가능)

2. 아이의 언어 학습능력(선천적)으로 어떤게 변할지 모르는 언어에 대응 가능

3. 호기심이 많고 경험이 적으니 비정상적인것을 알아채기 쉽다


머.. 성인을 가르쳐서 보내는거 보다

현지에서 시간이 조금 더 걸리더라도 아이를 보내는게 좀 더 현실적으로

안정적이지 않을까 라는 뻘생각..


(응)

Posted by 구차니

댓글을 달아 주세요

  1. 아직 아이같은 저를 보내는것도 좋지 않을까요? ^^;

    2018.08.26 23:55 신고 [ ADDR : EDIT/ DEL : REPLY ]
  2. Draco

    음...아이가 보호받는 시대가 인간 역사상 얼마 안되는걸 생각하면 위험해 보이는데요 ㅋㅋ

    2018.08.27 08:10 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 머.. 아이들 대상이니 아이들을 과거로 미래로 보내지만 문득
      그게 더 현실적이지 않을까? 라는 생각이 들더라구요.
      예로 터미네이터에서 과거로 보내진 주인공 아빠가 당한(?) 행적을 보면 아이를 보내는게 나을지도 모르겠더라구요 ㅋㅋ

      2018.08.27 09:19 신고 [ ADDR : EDIT/ DEL ]

아이디어!2018.07.10 11:15

언어나 인간의 지능, 사물의 인지를 보고있으면 참 신기한 느낌이 든다.

어떻게 그렇게 짧은 시간에 인지를 하며

그것이 무엇인지 "직관"이라는 표현이 어울릴 정도로 수많은 정보들 속에서 콕찍어 낸다.


인간의 두뇌에 저장가능한 정보가 무한할리는 없지만

거의 무한에 가깝다고 생각될 정도의 복잡도를 가진 처리+저장 장치로서의 뇌는

어떠한 이유로 사물을 추상화 단순화 하는 것일까?


단순히 의사소통을 위한 에너지 소모를 줄이기 위해서 기호로서 단순화 시키는건 아닐텐데

이러한 정보 처리를 위한 의도적인 데이터의 축소/손실 과정 자체가

정보의 바다에서 해답을 얻는데 도움을 준다면

이런 처리 과정 자체가 어떠한 의도를 지니고 만들어진 과정이 아닐까 생각된다.



수많은 연속된 색상의 변화가 있더라도(주변빛에 의한 변화가 있어도) 빨간색이라고 인지를 하며, 

그림자가 지더라도 그림자가 진 부분까지 빨간색의 하나로 인식하고

색이 다른 부분을 그림자로 인식을 한다.


영상 센서를 통해 들어 온 어마어마한 양의 정보는

빨간색 이라는 기호로 치환되며, 그 사이에 의미를 지니지 못한 부분은 손실 된다.

그럼에도 불구하고 최소한의 표현을 통해(구석에 얼룩이 졌다) 손실된 데이터를 상당부분 복구하게 된다.


추상화를 통한 데이터의 손실과

덮어 씌어지는 일부의 경험적 데이터에 의한 원본에 가까운 데이터의 복원


그리고 추상화 되면서 단순화된 데이터를 통한 실제 처리 데이터의 감소는

빠른 처리 시간과, 더 큰 정보의 처리 가능성을 거머쥐게 된다.



컴퓨팅 성능이 올라가면서 과거에는 상상하지 못했던 처리들이 이뤄지고 있고

이런 것들이 정말 지능이라고 해야 할까라는 부분에 고민이 들지만

어쩌면 인간의 생체조직이 해오던 저수준 처리를 이제야 구현해 낸 것이고

더 발전하면 유기화합물로서의 지성체가 아닌 무기화합물로서의 지성체가 발생할 수도 있지 않을까

그리고 구성요소는 다르지만 우리와 대화 가능한 또 다른 신인류를 만들어 내게 되는건 아닐까?



+

가끔 인공지능의 분류기를 보고 있노라면

자신이 가진 어떤 가중치를 통해 차원을 높임으로서 오히려 더 구분이 쉬워지는 경우가 생겨난다.

(SVM-Support Vector Machine)

아직까진 경험에 의한 가중치 정보가 충분하지 않아 현재의 ANN 기반 딥러닝에 밀렸지만

AI에 의한 딥러닝이 강화되고

SVM이 이것과 결합하게 된다면

경험이라는 기반 데이터를 통해 더욱 정확하고 빠른 인간에 가깝거나

인간과 같으나 더 빠른 분류기가 생겨나게 되지 않을까?



+

SVM에 확률분포를 포함하면 어떨까?

일반적으로 여기는 A다, A에있는 한개는 노이즈나 잘못된 데이터 이다. 이런식

만약 데이터가 늘어나면 한개가 노이즈가 아닌 특이점으로 처리될수도 있는 가능성을 지니고

확률 분포로서 A와 B가 겹치더라도 어느정도 분류가 가능하기 용이해지지 않을까?

k-mean 값을 통해 분포와 분산을 계산하고 특정값을 통해 확실한 영역을 기준으로 포함하면 될지도?


C-SVM 이라는게 있네?

[링크 : https://ratsgo.github.io/machine%20learning/2017/05/29/SVM2/]

Posted by 구차니

댓글을 달아 주세요

  1. 어이구야...
    어려운 얘기 패스하겠습니다. ㅋ

    2018.07.10 12:50 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 어.. 참 쉬운 이야기 인데 왜.... 왜죠?!

      2018.07.10 13:15 신고 [ ADDR : EDIT/ DEL ]
    • 제가 지식이 부족한 사람이라서요. ^^;

      2018.07.10 13:15 신고 [ ADDR : EDIT/ DEL ]
    • 머 간단하게 표현하면
      꿈을 어떻게 요약하냐? 가 아닐까 싶어요.
      우리는 단순하게 차도 꿈에서 나오고.. 라고 하지만 생략된 많은 데이터에 차종부터 색상 운전 특성까지 포함된 수 많은 데이터들이 생략되고, 다시 복원이 되고 있죠.

      2018.07.10 13:18 신고 [ ADDR : EDIT/ DEL ]

아이디어!2018.07.10 11:04

워프-사피어 가설을 읽으면서 든 생각

(어라 이틀 연속인가)


한참 책에 빠져 있을때에는 문장을 넘어선 비문장이 있었다.

다른 나라의 번역문장이기 때문인진 모르겠지만

내가 아는 한도내의 한국어/국문으로는 표현할 수 없는 무언가

그걸 표현하기 위해서 유사한 단어들의 나열로서 그 이상의 것을 표현을 했는데


아이를 키우면서 드는 생각은

"언어는 사고를 제한한다" 라고도 하지만

그렇다면 언어를 가지지 못한 아이는 사고를 하지 못하는가? 로 도출되진 않으니

사고를 언어로 하지 않는다가 좀 더 합당한 논리가 아닐까 생각된다.


언어란 것은 기호(mnemonic)으로서 기억 공간의 최적화와

단순화를 통한 추상화를 위한 의도적인 정보의 손실로서 사용되는

개체를 위한 속성으로서의 기호가 아닐까 생각된다.


머릿속에서 어떠한 시뮬레이션이 그림으로 그려지는 나로서는

형상이나 시간에 대한 변화량으로 사고를 하는 편이니

애니메이션 등에서 은연중에 드러나던 워프-사피어 가설 자체는 부정될 만 할지도 모르겠다

(이누이트 언어로 눈이 수백가지라던가.. 요게 워프-사피어 가설일 줄이야)


+

언어란 것은 인간 개개인의 경험과, 그 모임인 사회적인 경험에 따라 분화 될 뿐

그것 자체가 사고를 제한한다고 보긴 힘들 것 같다.

반대로 그러한 경험 자체가 사고의 한계를 제한한다고 해야 하지 않을까?


+

우리가 보는 식칼에도 부품 하나하나 이름이 있지만

단순하게 요리하는 사람은 그걸 모르고 식칼로 하나의 개체로 인식하듯

경험 자체가 그 사람의 사고를 제한한다라고 보면 될 것 같기도 하다.


+

반대로 커텍트(원제 arrival)에서 처럼 단순하게 언어 하나 배웠다고 해서

사고 자체가 달라지는 일 까진 발생하지 않을 것으로 보인다.

만약 달라졌다면 언어적 구조나 언어가 아닌, 그 언어가 포함하고 있는 그 경험이

그 사람의 사고를 다르게 했을 것으로 생각된다.


Posted by 구차니

댓글을 달아 주세요

  1. '사고를 언어로 하지 않는다' 라기 보다는
    사고에 언어가 영향을 끼친다가 맞는 것 같아요.
    요즘 블로그 쓰면서 종종 맞춤법 체크를 해보고 있는데
    영어식 표현이라면서 체크되는 것들이 있더라고요.
    영어를 잘 하지도 못하면서 한글을 영어식으로 쓰고 있다는 것에 충격을 조금 받았어요. ^^;

    2018.07.10 12:53 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 사고에 언어가 영향을 미치는지, 아니면 언어를 이용하여 획득 가능한 "경험"이 미치는지는 명확하진 않습니다만 지금 읽는 책에서는 언어자체가 사고에 영향을 미친다고 하여 보는 중입니다

      저도 되도록이면 국문으로 표기를 하는 편이긴 한데.. 간판들을 보면 씁쓸합니다. 한국인데 한글로 된 간판들 보기가 너무 힘드네요.

      한글이 문제가 아니라 글꼴/타이포의 문제라고 보여지긴 하지만요..

      2018.07.10 13:17 신고 [ ADDR : EDIT/ DEL ]

아이디어!2018.07.09 19:59

워프-사피어 가설을 보다가 든 생각


보는데 못 보는 것,

의식의 영역으로 끌려올려지지 못한인식이 존재한다.


1. 눈으로 보고

2. 뇌에서는 공간을 점유하는 것을 객체로 인식하고(깊이라던가 부피로서)

3. 단순화 추상화를 통해 뇌에 기억된 것들 중에 유사성 검색을 하여 매칭되는 니모닉을 부여하고

4. 의식영역으로 중요도나 관심에 따라 전송되고

5. 의식영역에서 해당 정보들을 바탕으로 처리를 하게 된다.



인식하는 것 자체가 중요한게 아니라면

어떤 의미로는 4번 단계인 ROI에 따른 중요도 검색이 지능이나 인지의 핵심일지도 모르겠다.

Posted by 구차니

댓글을 달아 주세요

아이디어!2018.06.22 07:40

딥러닝 관련 책을 보다보니

지능이란 결국에는 분류기(classifier) 인데


만약 학습데이터가 모두 동일하다면

분류할 수 없는 데이터에서 분류기는 어떤 답을 내놓게 될까?

분류기는 어떠한 것을 분류하는 것이기에..

1. 동일한 분류이다(한가지로 분류해냄)

2. 분류할 데이터가 없음(0으로 인정)

둘중에 하나로 작동하지 않을까 싶은데..


아니면 논리에 의한 추론으로 SVM 처럼

더 많은 데이터를 추론해 내애서 동일 데이터라고 하더라도 다르게 볼 수 있을려나?



그런 면에서 어떻게 보면 배울것이 더이상 존재하지 않을 세상은

죽은 세상이며

완벽한 세상이 되는 걸까?



분류기로 많이 나오는 예제이다.

과거에는 직선을 통해 두개를 가장 확실하게 분류하려 했지만

많은 문제에 직선을 통해(1차 방정식) 구할 수 없기에

점점 차수가 늘어나게 되고, 그렇기에 해가 존재하는지 조차 점점 모호해져 간다.


답이 있을지 없을지도 모르기에

최적해 대신 근사해를 일정 시간내에 받아내오는 해법에 인류를 도달(?)하게 되는데

현재의 DNN 기반 AI들은 뉴런의 weight 값에 따른 블랙박스를 지능으로 사용하고 있다.

이런 weight값을 복제하면 여러개가 작동할테니 복제에 문제는 없겠지만

새로운 룰이 들어올 경우 또 다른 학습이 필요하게 되서

장기적으로는 AI 학습이나 지능에 대한 정의가 새롭게 필요하지 않을까 한다.


개인적인 현재까지의 생각은

규칙 기반의 AI가 최종버전이 되지 않을까 생각한다.

고조선 시대의 삼조법이라던가 현재의 헌법이라던가.

이러한 상위 몇개의 명령에 따라 그걸 위반하지 않는 수준으로

자신의 판단가치에 따라 행동하는 인간과 동일할 지능이 낳은 또 다른 형태의 지능


아래와 같은 그림을 보고 있노라면 경계값이 어디인가? 라는 것이 궁금해진다.

빨강이 하나도 없는 곳이 다른 녹색인가

아니면 노이즈 처럼 끼어드는 하나도 없었을 영역의 녹색은 예외인가

다른 특정 이벤트로 처리해야 하는 것인가 등등


어쩌면 저 혼란함 자체가 차원이고, 경계가 아닌가 생각된다.

크게 보면

빨강 / 녹색에서

빨간 / 혼합 / 녹색

완전 빨간 / 주로 빨간 / 혼합 / 주로 녹색 / 완전 녹색

식으로 구분의 정도를 세분화 해 나가다 보면


과거 퍼지처럼 분류기 자체가 확률분포값을 가지고

일정 부분 A와 B와 유사함이라는 모호함과 추상화를 이뤄낼 수 있지 않을까?

[링크 : https://stats.stackexchange.com/questions/142215/how-is-naive-bayes-a-linear-classifier]

Posted by 구차니

댓글을 달아 주세요

아이디어!2018.04.05 13:48

IoT를 위한 최소 요구사항이 1mW 인데 3mW 급 전원공급이 가능하다라..

예전에 적었는지 기억이 안나는데


반도체의 소비전력이 줄어들고, 

궁극적으로 미세한 정전기 수준으로 작동이 가능해진다면

옷 곳곳에 붙여서 정전기를 먹으며 작동하는 웨어러블 시스템이 가능하지 않을까 했는데

그 상상이 현실로 조금은 더 가까워진 느낌이다.



만약에 ePaper 소비전력 극소화 + 리프레시 속도 증가

저전력 CPU의 소비전력 극소화

기사의 자기장->전기 변환 장치 및 정전기를 전원공급장치로 사용가능한 시스템 등장


그러면.. 비닐옷만 입으면 정전기를 냠냠하면서

AR을 구현가능한 세상이 올 듯?


[링크 : http://v.media.daum.net/v/20180405120032921]

mW를 메가와트라써서 신나게 까이는 현장 ㅋㅋ

Posted by 구차니

댓글을 달아 주세요

아이디어!2018.02.13 19:02

버스/지하철에서 특정 인물의 목소리만 잘들리는 현상이 있어서 든 생각


tms320f2808이나 DE0-nano의 ADC 12채널 처리를 타겟 주파수로 따로 추적하면 어떨까?

2채널 정도는 스테레오로 전 파장대를 받아서

기반 데이터로 사용하고, 들어오는 데이터 중에 특정 데이터를

MIC 레벨에서 필터링 해서 특정 주파수만 받아 들이면 처리가 용이하거나

아날로그 레벨에서 필터링하고 ADC range를 조절해서 더 정밀하게 특정 대상을 추정가능하지 않을까?


실제 효용이 있는지, 가능한지 모르겠네...


프로그래머블 대역필터가 있으면

adc통해서 전 대역 2개 받아서 처리할게 아니라 

대역별로 받아들이거나 특정 주파수나 대상을 추적하게 가능하지 않을까?

[링크 : http://www.ti.com/lit/an/sbaa094/sbaa094.pdf]

[링크 : https://www.allaboutcircuits.com/technical-articles/implementing-a-low-pass-filter-on-fpga-with-verilog/]

[링크 : https://ko.wikipedia.org/wiki/대역_필터]


일단 찾은 건..

프로그래머블 가변저항 정도..

프로그래머블 캐패시터도 논문은 보이는데 실제 제품은 모르겠고

RC 시정수를 통해서 band-pass나 low-pass, high-pass로 구성이 가능하니

R/C만 프로그래머블 한 녀석이 있으면 충분히 가능하지 않을까?

Posted by 구차니

댓글을 달아 주세요

아이디어!2017.12.28 14:10

양덕들 처럼 우리나라도

개발자 덕후들이 놀수 있는 공간이 있음 얼마나 좋을까


[링크 : http://www.edaily.co.kr/news/news_detail.asp?newsId=02610886615929248]

[링크 : http://bizn.donga.com/3/all/20071206/21234324/1]

Posted by 구차니

댓글을 달아 주세요

아이디어!2017.12.28 13:26

애기가 안잔다... -_-

바운서 흔들흔들 해주는 것도 힘들고

그냥 싼 바운서에 덜덜이 켜놔도 별 반응도 없고

발로 흔들흔들해주면 조용해지는데


찾다 보니, 상용제품으로는 있긴한데

[링크 : https://www.4moms.com/]

    [링크 : https://blog.naver.com/kimmihyo/220188986056]


이런 거창한(?)게 아니더라도

바운서 머리쪽에 실을 묶고

바운서 하단 뒤쪽의 철봉 지지대에

서보 모터를 달아서 왔다 갔다 해주면 안되려나?

어짜피 빠를 필요 없고, 이동할 각도가 클 필요가 없으니

RC용 싸구려 서보로도 충분할 듯..

일단 만들어는 봐야겠다 ㅋㅋ



+

[링크 : http://wiki.vctec.co.kr/opensource/arduino/servocontrol]

Posted by 구차니

댓글을 달아 주세요

아이디어!2017.12.14 10:16

얼마전 읽은 비트코인 관련 분석글 링크는 없는데..

요약만 하자면

CPU -> GPU -> FPGA -> ASIC 의 순서로 채굴이 변화되며

앞 세대는 뒷세대가 나오면 처참하게 버려진다.

하지만 뒷 세대가 나오지 않으면 블럭체인 기반의 가상 통화들은 활력을 얻지 못한다. 


인데. 직설적으로 표현하면

결국 돈 놓고 돈 먹기라는 의미이다. ASIC을 찍어내기 위해서는 자본이 무지막지하게 들고

GPU도 결코 싼건 아니라 초기 투자비 + 유지비를 무시 못하는 편이고

아무튼 차세대 블럭체인들은 하드웨어 로직을 막으려는 경향이 있다고 하는데

그게 수명을 늘려줄지, 오히려 단축시킬지는 고민해 봐야할 문제라고 보여진다.

다만 그러한 보호 수단이 얼마나 갈지 미지수고

(SW로 작성 가능한 로직이라면 효율의 문제지

결국에는 VHDL로 하드웨어 작성이 가능하고 그럼 ASIC은 결국 나올수 밖에 없다)

그러한 폐쇄성이 표준화나 보급에 독이된 VHS와 BETA 방식의 싸움으로 나아가게 되지 않을까 생각된다.




머 근데 정말 하고 싶은 이야기는 비트코인이 아니고

이런 발전사를 보건데..

저~~~얼대 내가 관심이 가서 하는 말은 아니지만

이제 GP-GPU의 시대는 끝났다! FPGA의 시대가 왔다! 아닐까 한다.


여전히 SW 개발자들은 Java가 좋니 C/C++/C# 등이 좋니 싸우는데

파이썬도 좋아요 하면 너 이단이다! (응?) 라던가 API는 언어가 아니에요~ 라던가 하지만

결국 시대의 흐름을 보건대, SW개발자는 언넝 짐싸들고 VHDL/Verilog를 배워야 하지 않을까 생각 된다.


CPU의 역사는, 매번 배선을 바꾸어야만 작업을 할 수 있는 hard wired progam의 불편함에서

데이터만 바꿔 씀으로서 다른 작동을 할 수 있는

일종의 "데이터 엔진(혹은 게임엔진)" 으로서의 범용 프로세서로 발전 되었고

이러한 범용성은 역설적으로 개발자의 역량에 결과가 달리고

보이지 않는 로직과 디버깅 되지 않는 문제로 인한 유지보수비용이라는 짐을 만들어 냈다.


물론 VHDL도 하드웨어 로직도 intel cpu 버그 처럼 사람이 만드는 것이라 버그가 없을 순 없지만

머리속에서 떠다니는 로직보다는 눈으로 보이는 로직으로서 훨신 수월한 디버깅 수단들이 있으니

상대적으로 소규모의 성능 집약적인 방향으로 나아갈 수 있지 않을까 한다.


극단적이지만

OS와 업데이트와 같이 CPU 아키텍쳐를 바꾸어 버리면

범용 컴퓨터가 아닌 임베디드 시스템으로서 소프트웨어 업데이트를 통해

OS와 같이 더욱 효율적인 SW 알고리즘과 HW 아키텍쳐를 발전시키고

더 나아가서 AI와 접목하여 중앙 서버에서 AI의 학습을 통해 

자기 스스로 SW 알고리즘과 HW 아키텍쳐를 발전시켜 나가는 시대가 오지 않을까 한다.


물론 아직까진 허황된 생각이고

그정도 규모를 구현할 FPGA라면 가격도 어마어마 할테지만

규모의 경제 관점과(일단 intel이 altera를 먹었으니), 공정 미세화, 그리고 AI의 발전속도를 고려해보건대

그리 멀지 않은 시점에 프로그래밍 언어는 HDL과 MCU를 위한 C와 비슷한 등급의 상위 언어 정도로

통일되지 않을까?



+

발상의 시작은 microblaze 와 nios 2

SW CPU의 존재와 intel의 FPGA 업체 인수. 

그리고 cyclone V(altera/intel)과 zynq(xilinx)와 같은 하드웨어 ARM 코어를 내장한 FPGA 로직의 출현.

그에 따른 빅데이터/기계학습.

자기 성장형 로직에 따른 AI 발전.


+

아직까진 FPGA가 로직을 바꾸려면 느린속도로 외부 SPI FLASH에 쓰고

(왜 느린지 이해가 안됨, SPI FLASH 원래 write 속도에 비하면 백만광년쯤 느린 느낌, JTAG 문제였나?) 

리부팅을 해야 하지만, 나중에 되면 FPGA 내부에 쿼드코어 식으로 구획을 나누어서

순환식으로 데이터 바꿔쓰고 부분 리셋걸어 재시작 없이 구현이 가능해진다면

서버제품군이나 사업현장에서도 충분해지지 않을까 한다.

물론 아키텍쳐 변경시에는 SW와 같이 변경이 되어야 하지만, 

하위호환성을 포기 하지 않고 약간의 오버헤드를 감수하면

몇번의 과정을 거쳐 순환적으로 재시작하면서 아키텍쳐와 SW 알고리즘을 갈아 엎어버리는 식으로

더 높은 성능을 꾀할수 있지 않을까?

또한, FPGA 구획을 나누어서 현재 어플리케이션이 필요한 대로 SPI FLASH가 아닌 DDR4 메모리 등으로 연결되서

현재 CPU 처럼 메모리에 프로그램이 아닌 하드웨어 로직은 탑재 후 부분 리셋을 통해

멀티태스킹에도 대응하여, 제한된 로직을 실시간 변경으로 대응하는 방법도 가능할 것으로 보인다.


+

FLASH 대신 DRAM의 이용은 궁극적으로 C와 VHDL의 경계를 허물고

어떤 의미로는 안드로이드에서 ios의 변환처럼

중간 언어를 통해 번역되던 오버헤드를 없애고

native 하게 돌리는 수준으로 하드웨어 자체를 SW화 시키면서

더욱 더 고성능의 저전력 시스템으로 나아갈수 있을 것으로 생각된다.

(여기서 DRAM의 이용은 configuration memory으로서의 사용임)


+적다 보니 궁극적으로는.. VHDL을 빌드할 수 있는 하드웨어가 존재해야 하거나,

내장된 ARM 코어나 x86 코어가 아주 빠르게 소규모의 fpga를 빌드할 수 있어야 할 것으로 보인다.

그러고 보니.. 굳이 FPGA에 ARM 코어 내장할 이유가 없네.. x86이면 머 어때 빌드할만큼의 성능만 나오면 되지?

그게 아니라면 fpga에 멀티코어를 구현해서 하나는 반드시 특정 아키텍쳐로 고정후 이녀석도 나중에

업데이트를 통해 발전시켜 나가면 어떨까 싶기도 하지만..


+

순환 리셋을 고려하다 보니. 필수적으로

CPU hot plug가 선결 조건인듯. 런타임에 cpu를 끊고 연결하고 스케쥴러에 연동해서 실시간으로 작동시키는..

(물론 리눅스나 윈도우 서버군에서는 제공은 될텐데.. runtime hot plug가 될진 찾아 봐야겠네)

생각해보니.. IDC에서도 cpu는 쿨러 문제로 핫 플러그 지원한다고 한들 슬롯 타입으로 된 CPU가 존재하지 않으니

(예전의 slot 1같은거 말고) 새로운 하드웨어와 그에 따른 운영방법이 생겨나야 할 것으로 보인다.

아무튼 기술 자체는 새로울것도 없는 현재 존재하는 기술이나 중요도가 달라질 뿐?

Posted by 구차니

댓글을 달아 주세요