본문 바로가기
반응형

전체 글210

cuda (구)버전 삭제/ (신) 버전 설치 InternalError: cudaGetDevice() failed. Status: CUDA driver version is insufficient for CUDA runtime version 에러 해결법 텐서플로 / cuda 툴킷 버전이 서로 안맞을 경우 발생 명령어로 cuda 제거 sudo apt-get --purge remove 'cuda*' sudo apt-get autoremove --purge 'cuda*' 폴더 남아 있으면 폴더 삭제 sudo rm -rf /usr/local/cuda-8.0 sudo rm -rf /usr/local/cuda nvidia 들어가서 다운받을 os 확인후 눌러주기 https://developer.nvidia.com/cuda-downloads?target_os=Lin.. 2020. 1. 10.
jupyter notebook 백그라운드 실행 jupyter notebook 백그라운드 실행 장점 : terminal을 종료해도 connection 보장 nohup jupyter notebook & 2020. 1. 9.
jupyter notebook 원격 접속(config) 1. cmd, putty 등을 사용하여 서버 접속 2. 주피터노트북 환경설정(config 파일 생성) jupyter notebook --generate-config 3. ipython으로 암호생성 ipython 입력 - [1] : from notebook.auth import passwd 입력 - [2] : passwd() //패스워드 생성 출력 - Enter password : 입력 - 비밀번호 입력 출력 - verify password : 입력 - 비밀번호 입력 출력 - out[2]: 'shal : 암호화된 비밀번호 입력 - [3] : exit() // 종료 암호화된 비밀번호를 복사해놓기( 뒤에서 사용 ) 4. jupyter_notebook_config.py(환경설정) 파일을 열기 vi ~/.jupy.. 2020. 1. 7.
vim 설치 및 설정 vim 에디터 설치하기 vim(vi 에디터에 설정을 더해준 에디터) sudo apt-get install vim 안될시 sudo apt-get update 시도후 다시 설치 vim 설정 vim 설정파일 열기 및 편집 vi ~/.vimrc 빈 파일이 열렸으면 a,i,e 등의 버튼을 눌러 입력모드로 set number //줄표시 set ai //auto indent set si //smart indent set cindent //c style indent set tabstop=4 //tab = 4칸 set ignorecase //검색시 대소문자 구별X set hlsearch //검색시 하이라이트(색상 강조) set background=dark //검정배경을 사용시 색상 변경 set fileencodings=.. 2020. 1. 7.
linux 서버 원격 접속하기 1. (win + R) 실행창 띄우기, cmd 입력 2. ssh 접속할 id@ip 3. passwd 입력하기 2020. 1. 7.
[논문 리뷰] Attention is all you need 논문 제목 : Attention is all you need 구글 브레인, 구글 리서치에서 쓴 논문으로 이 블로그의 첫 글을 쓰고자 한다. 논문 제목에 나오는대로 attention - 특정 정보(단어)에 좀 더 주의를 기울이면 된다는 논문이다. 예를들어 model이 수행해야 하는 task가 번역일 경우 source는 영어이고 target은 한국어일 때 “Hi, my name is tapseon.” 문장과 대응되는 “안녕, 내 이름은 탶선이야.”라는 문장이 있다. model이 '이름은' 이라는 token을 decode할 때, source에서 가장 중요한 것은 name이다 즉 source의 모든 token이 비슷한 중요도를 갖기 보다는 name이 더 큰 중요도를 갖게 만드는 방법이 attention이다. 1.. 2019. 12. 5.
[논문 리뷰] Bidrectional Transformers for Language Understanding(BERT) 논문 제목 : BERT : Pre training of Deep Bidirectional Transformers for Language Understanding 2번째로 게시할 글 역시 구글에서 발표한 논문이다. 논문제목에서 나와있는 Transformer는 첫 번째 게시글인 attention is all you need의 모델 이름이다. 즉 attention is all you need의 논문을 참조한 논문이며 Bidrectional(양방향)으로 language를 학습한 논문이다. 또한 당시 language 모델에서 가장 좋은 성능을 보였던 ELMo, OpenAI GPT를 겨냥한 논문으로 보인다. 1. 배경 BERT : Bidirectional Encoder Representations from Tran.. 2019. 12. 4.
반응형