문제점 WSL을 이용해 윈도우에서 우분투 환경으로 딥러닝 개발 중 윈도우 OS와 같은 SSD에 설치되어 운영되어 데이터를 조금만 넣기 시작하면서 SSD가 금방 꽉 차는 현상이 발생하였음 해결 방향(안됨) 시스템 설정에서 설치된 앱 중 우분투를 하드 디스크로 이동하는 방식으로 해결을 시도하였으나 실패 함 해결 방향(move-wsl 코드 사용) 참고한 블로그: https://velog.io/@darktrace1/WSL-%EC%A0%80%EC%9E%A5%EC%86%8C-%EC%9C%84%EC%B9%98-%EC%98%AE%EA%B8%B0%EA%B8%B0 WSL 저장 경로 변경 (C to D) WSL 저장 경로 변경 (C to D) velog.io 소스 코드(move-wsl): https://github.com/..
서버(원격)에서 학습 중인 결과를 로컬(내 노트북)에서 보고 싶을 때 1. 텐서 보드 실행 tensorboard --logdir=__dir__ --port=xxxx 포트 번호는 6006이 기본인데 여러 개를 돌리는 경우 6007, 6008겹치지 않게 지정한다. 학습을 실행하는 컴퓨터와 텐서보드를 실행하려는 브라우저가 동일한 시스템인 경우는 이후 브라우저에서 localhost:xxxx (예를들어, localhost:6006)를 입력하면 텐서보드를 볼 수 있다. 2. ssh로 로컬에서 특정 포트 번호로 연결(터널링)하기 ssh -L aaaa:localhost:xxxx __user__@xxx.xxx.xxx.xxx 로컬 컴퓨터 터미널에서 ssh 명령어 중 L옵션으로 로컬의 특정 포트를 원격 서버의 특정 포트에 ..
시도한 방향 해결된 내용을 작성하다 포기하고 서버에 접속해 텐서플로우를 사용하고 있다. 그냥 뭐 다른게 있을까 하고 anaconda를 설치하고 텐서플로우(Tensorflow)를 설치하려고 했는데 아직 지원을 안하는 문제가 있다. (2020년 3월 18일 현재) 인텔 CPU가 아니라 전용 칩을 쓰다보니 생기는 문제인데 이와 관련해서 anaconda 대신 conda패키지 포함된 miniforge3를 설치하고 conda init 명령을 통해 anaconda대신 m1 아키텍처에 맞는 conda를 사용하여 텐서플로우를 설치하는 방법을 고민 해보았다. 반복된 문제 문제는 설치하려는 whl파일들을 다운받아 설치를 시도하면 다음과 같은 메시지가 포함된 에러가 발생한다. not a supported wheel on th..
Detectron2 는 facebook AI에서 오픈한 object detection 라이브러리이다. github.com/facebookresearch/detectron2 facebookresearch/detectron2 Detectron2 is FAIR's next-generation platform for object detection and segmentation. - facebookresearch/detectron2 github.com 도커 이미지 만들기 도커 이미지를 만들 수 잇는 Dockerfile이 있으며 설치 방법이 있다. github.com/facebookresearch/detectron2/tree/master/docker facebookresearch/detectron2 Detectro..
분류 성능 지표를 위해 필요한 네 가지 경우가 다음과 같이 발생한다. Actual (실제 결과) TRUE FALSE Predicted (분류 결과) TRUE True Positive False Positive FALSE False Negative True Negative 실제 정답이 True나 False일 수 있고 이를 각각 예측한 결과가 True나 False일 경우가 있다. 이를 조합하여 True Positive, False Positive, False, Negative, True Negative 네가지 조합이 발생한다. 혼동되지 않도록 Positive/Negative는 예측된 결과에 대한 내용으로 Positive는 True로 예측한 경우 Negative는 False로 예측한 경우를 말하며 앞에 Tru..
jupyter notebook에서 잘 동작하는 간단한 딥러닝 모델을 jupyter lab 상에서 학습(fit, fit_generator)코드를 실행시켰을 때 정상적으로 넘어가지 않고 다음과 같은 에러 메시지가 나타났다. InvalidArgumentError: device CUDA:0 not supported by XLA service while setting up XLA_GPU_JIT device number 0 검색해보니 CUDA_VISIBLE_DEVICES관련해서 학습코드가 할당된 GPU를 선택해주는 명령을 shell상에서 지정해주거나 코드상에서 지정하면 된다고 해결책을 제시하고 있다. 터미널 shell에서 다음과 같이 명령을 입력하면 된다. $ export CUDA_VISIBLE_DEVICES=0,..
텐서플로우 버전마다 설치해야 하는 CUDA toolkit과 cuDNN 라이브러리 버전을 맞춰 주기위해 조합 테이블을 매번 필요하다. TensorFlow + CUDA + cuDNN 조합 다음 페이지에 '테스트된 빌드 구성' 섹션에 특정 버전마다 실행되는 CUDA 버전과 cuDNN버전 테이블이 있다. https://www.tensorflow.org/install/source#linux 소스에서 빌드 | TensorFlow 소스에서 TensorFlow pip 패키지를 빌드하고 Ubuntu Linux 및 macOS에 설치합니다. 명령어는 다른 시스템에도 적용될 수 있지만, Ubuntu 및 macOS용으로만 테스트되었으며 지원됩니다. 참고: 철저히 테스트되어 사전 빌드된 Linux 및 macOS 시스템용 Tens..
우분투에 설치하기 우분투 18.04에 직접 다음 자료를 참조하여 설치하거나 도커상에서 설치하면 된다. http://ceres-solver.org/installation.html#linux Installation — Ceres Solver Although a full tutorial on CMake is outside the scope of this guide, here we cover some of the most common CMake misunderstandings that crop up when using Ceres. For more detailed CMake usage, the following references are very useful: When a project like ceres-sol..
- Total
- Today
- Yesterday
- ubuntu
- comfyUI
- Stable Diffusion
- 3d프린터
- git
- conda
- vscode
- 메이커
- CAD
- MicroBit
- WSL
- fablab
- tensorflow
- cura
- 한글
- Python
- vvvv
- opencv
- Streamlit
- Linux
- 파이썬
- Fusion360
- Maker
- ssh
- nvidia
- 우분투
- docker
- Arduino
- 단축키
- nodejs
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |