목록딥러닝 (19)
맥에서 오픈소스로
https://youtu.be/LMe_bL14CYc?si=UBihKPOIUBHsMfv2 MCP : 미친 프로토콜

- 데모 비디오 : https://youtu.be/VTwPJsRF3d4?si=7hwREP96ai1hIvqY- 데모 비디오2: https://youtu.be/TNNuDRo0C-Y?si=hQhsYAnaCaBBpF2G import tkinter as tkfrom tkinter import filedialog, messageboxfrom PIL import Image, ImageTkimport cv2import numpy as npfrom segment_anything import sam_model_registry, SamPredictor## computer vision package in Frequency Domainimport openfv as fvimport threadingimport timeclas..
onnxruntime 으로 알아내기$ pip3 install onnx onnxruntime$ python -c "import onnx; model = onnx.load('resnet18.onnx'); print(onnx.helper.printable_graph(model.graph))"결과:PS C:\Users\qkdlt\Downloads> python -c "import onnx; model = onnx.load('resnet18.onnx'); print(onnx.helper.printable_graph(model.graph))"graph torch-jit-export (%input.1[FLOAT, 1x3x224x224]) initializers (%head.weight[FLOAT, 10x512]%he..
질문: - 딥러닝용 이미지데이타 오그먼테이션에서소수(프라임 넘버)를 이용하는 신기술 같은건 없나?AI:- 흥미로운 질문이네요. 현재까지 딥러닝 이미지 증강(augmentation)에서 소수를 직접적으로 활용하는 기법은 일반적이지 않습니다만, 몇 가지 관련된 아이디어를 생각해볼 수 있습니다:1. 회전 각도 선택에서의 활용 가능성:- 소수를 기반으로 한 회전 각도를 사용하면 반복되는 패턴을 줄일 수 있을 것 같습니다- 예: 7°, 11°, 13° 등의 회전으로 더 다양한 각도의 데이터 생성2. 스케일링 팩터로의 응용:- 소수를 이용한 비균일 스케일링으로 더 자연스러운 변형 가능- 예: 1.03, 1.07 등의 소수 기반 스케일링3. 노이즈 생성에서의 활용:- 소수 기반의 시드값을 사용한 노이즈 패턴 생성- ..

질문:- 딥러닝용 데이타 오그먼테이션에서 소수(프라임 넘버)를 이용하는 신기술 같은건 없나?끌로드:- 재미있는 질문이네요. 데이터 augmentation에서 소수를 활용하는 접근은 아직 널리 연구되거나 적용되지는 않은 것 같습니다. 하지만 몇 가지 관련된 아이디어를 생각해볼 수 있겠네요:1. 소수의 주기성을 이용한 augmentation:- 소수들 사이의 간격이 불규칙하면서도 일정한 패턴을 가지는 특성을 활용- 이미지나 시계열 데이터의 변형에 이 패턴을 적용할 수 있을 것 같습니다2. 소수를 이용한 샘플링:- 데이터셋의 크기가 N일 때, N보다 작은 소수들을 이용해 서브샘플링- 이는 데이터의 균일한 분포를 유지하면서도 다양한 변형을 만들어낼 수 있습니다3. 암호학적 관점:- 소수의 곱셈적 특성을 이용한 ..

import osfrom PIL import Imagedef create_yolo_txt(image_path, class_id): # 이미지 크기 얻기 with Image.open(image_path) as img: width, height = img.size # YOLO 포맷으로 변환 (전체 이미지를 바운딩박스로) # YOLO 포맷: x_center = 0.5 # 중심점 x (정규화된 좌표) y_center = 0.5 # 중심점 y (정규화된 좌표) w = 1.0 # 너비 (정규화된 값) h = 1.0 # 높이 (정규화된 값) # txt 파일 경로 생성 (이미지와 동일한 이름, 확장자만 .t..
Incremental Learning Demo 1 https://youtu.be/Ji-_YOMDzIk?si=-a9OKEy4P34udLBS 출처 @YouTube - m1 macmini, cpu mode- Pytorch, faster r-cnn- tkinter, yolo txt

- 오토엔코더(Auto-Encorder)의 오토(Auto)- 란 말은 자동(automatic)이란 뜻이 아니고 오토-코릴레이션(Auto-Correlation)에서 유래한 말입니다.- 원래는 신호처리에서 유래한 용어입니다. 자기자신(Self-) 이란 의미로 쓰인거죠. - 즉, 입력과 출력에 동일한 이미지가 들어간다는 뜻입니다. - 신경망의 입력과 타겟에 동일한 이미지가 들어가게 학습함으로서 병목구간에서 의미있는 피쳐들을 뽑아내는 원리인거죠 ..그래서 오토-엔코더 .- 하지만 이 그림처럼 입력과 출력에 다른 이미지가 들어가는 엔코더도 저렇게 오토엔코더라고 부르는거 같습니다. ..개인적으로는 저런 엔코더는 Cross-Encoder 라고 불러야 하지 않을까? 라고 생각합니다.- 왜냐하면 신호처리에선 같은 두 이..
import osimport torchimport torch.utils.datafrom torch.utils.data import Dataset, DataLoader, random_splitfrom torchvision import transformsfrom torchvision.models.detection import fasterrcnn_resnet50_fpn_v2from torchvision.models.detection.faster_rcnn import FastRCNNPredictorfrom PIL import Imageimport numpy as npimport torchvision.transforms.functional as Fimport random# (이전의 Compose, RandomHo..

- 몇 년 전에 정부 AI과제를 수행 중에 중간평가 심사를 받을 때 일어났던 일입니다.- 과제 심사위원들이 딥러닝에서 데이타가 점점 더 중요해지고 있다는 소리를 어디서 들었는지, 학습에 사용된 클래스별 데이터의 원래 수량과 각각의 오그먼테이션(Augmentation, 데이터 증강) 방식별 부풀려진 수량을 테이블로 정리해서 알려달라고 요구하였지요.- 하지만 데이타 전처리 타임이 아닌 학습 타임(train time)에 오그먼테이션을 하기 때문에 수량을 산정하기가 어려운 문제가 있었습니다.- 다시 말하면, 학습타임에 확률적으로 오그먼테이션된 이미지를 발생시켜서 메모리에 임시저장했다가 모델에 입력하고 바로 지워버리는 방식으로 반복적으로 진행하기 때문에 정확한 오그먼테이션 이미지 수량을 집계하는 게 어려운 것입니..