CUDA5
-
IRuntime::deserializeCudaEngine: Error Code 1: Serialization
ultralytics를 이용해서 아래의 명령어로 yolo11n 모델을 tensor RT에서 추론가능한 형식으로 export 했다.yolo export model=yolo11n.pt imgsz=1080,1920 format=engine그리고 C++, Python에서 아래와 같은 코드로 테스트를 해보았는데 동일한 에러가 발생했다.더보기void Yolo::loadEnginestd::stringenginePath { // Deserialize model std::cout std::cout runtime = createInferRuntime∗gLogger; assertruntime!=nullptr; std::ifstream engineStream(enginePa..
2025.01.06 -
error: stat/usr/local/cuda/lib64/libcudartstatic.a: Bad message
onnxruntime을 설치할 때, /usr/local/cuda가 아니라 /usr/local/cuda-11.8를 이용해서 빌드한 후, cuda의 심볼링 링크가 깨진 현상이 발생하였다. 아주 난감한 것은 어떤 명령어도 쓸 수 없었다는 것..$ sudo ls /usr/local/ -lls: '/usr/local/cuda'에 접근할 수 없습니다: 메시지가 잘못됨ls: '/usr/local/cuda-11'에 접근할 수 없습니다: 메시지가 잘못됨합계 72drwxr-xr-x 2 root root 4096 11월 22 14:53 binl????????? ? ? ? ? ? cudal????????? ? ? ? ? ? cud..
2025.01.03 -
Jetson Orin Nano에 ONNXRUNTIME 환경 설정하기
아래의 절차에 따라 진행하면 될 것 같다.https://onnxruntime.ai/docs/build/eps.html#nvidia-jetson-tx1tx2nanoxavierorin Build with different EPsLearm how to build ONNX Runtime from source for different execution providersonnxruntime.ai1. 먼저 onnxruntime의 레포지토리를 클론한다.2. cuda 11.8이 기본 버전인데, 초기에 jetpack 5.x를 설치하면 cuda11.4가 설치되어 있기 때문에 cuda11.8로 업데이트를 해주어야한다. 원래라면 jetpack을 다시 설치해야하지만, 11.4에서 11.8은 그냥 소프트웨어만 업데이트할 수 있다고..
2024.12.21 -
Jetson Orin Nano에서 dlib 라이브러리 C++에서 빌드하기
파이썬을 이용해서 face_recognition, dlib을 이용해서 얼굴인식 프로젝트를 수행한 후, 그것을 C++로 옮기는 과정에서 dlib 라이브러리 빌드 오류가 발생했다. 정확히는 얼굴 인식 모델을 불러올 때, cuda 버전의 불일치로 인해서 발생하는 오류 였다. 파이썬에서는 문제 없이 잘 되는데 오류가 발생해서 굉장히 곤란했다. void FaceRecognitionWorker::loadModels { faceDetector = get_frontal_face_detector; deserialize"../asset/dlib_face_recognition_resnet_model_v1.dat" >> faceRecognitionModel;}terminate called after th..
2024.12.19 -
Exception: CUDA error: no kernel image is available for execution on the device
딥러닝을 통해서 모델을 학습, 추론 시키는 경우, GPU를 사용하게 되는데, 각각의 GPU 별로 사용할 수 있는 Pytorch 버전이 정해져 있습니다. 만약 GPU가 사용할 수 있는 버전과 사용하는 Pytorch 버전이 맞지 않는 경우, 아래와 같은 오류가 발생하게 됩니다. 현재 사용하고 있는 GPU에 맞는 Pytorch 버전을 설치하는 절차는 아래와 같습니다. 1. CUDA 버전 확인하기 nvidia-smi 또는 nvcc -V 명령어를 통해 현재 사용하고 있는 CUDA 버전을 확인합니다. 2. 현재 사용하고 있는 CUDA 버전에 맞는 Pytorch 및 하위 라이브러리를 설치한다. https://pytorch.org/get-started/previous-versions/ PyTorch An open so..
2022.11.16