디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

llama-cpp 한글도 됨.

☆단비☆갤로그로 이동합니다. 2024.06.30 23:31:59
조회 45 추천 0 댓글 0

사람들이 왜 고성능 CPU, GPU 다는 지 알겠다.

그리고 웹브라우저에서 챗하면 응답이 천천히 나오잖냐..

그거 일부러 그렇게 한게 아닌 것 같음.


제 컴이 저전력/저사양 J5040 컴이라 응답 출력되는데 몇 분씩 걸리고 있는 중...

한글자 출력되는데 7초 걸리는거 같음.


hodong@:~/Downloads $ main -m ggml-model-q4_k.gguf -p 안녕
Log start
main: build = 0 (unknown)
main: built with FreeBSD clang version 16.0.6 (https://github.com/llvm/llvm-project.git llvmorg-16.0.6-0-g7cbf1a259152) for x86_64-unknown-freebsd14.0
main: seed  = 1719757590
llama_model_loader: loaded meta data with 19 key-value pairs and 291 tensors from ggml-model-q4_k.gguf (version GGUF V2)
llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
llama_model_loader: - kv   0:                       general.architecture str              = llama
llama_model_loader: - kv   1:                               general.name str              = LLaMA v2
llama_model_loader: - kv   2:                       llama.context_length u32              = 4096
llama_model_loader: - kv   3:                     llama.embedding_length u32              = 4096
llama_model_loader: - kv   4:                          llama.block_count u32              = 32
llama_model_loader: - kv   5:                  llama.feed_forward_length u32              = 11008
llama_model_loader: - kv   6:                 llama.rope.dimension_count u32              = 128
llama_model_loader: - kv   7:                 llama.attention.head_count u32              = 32
llama_model_loader: - kv   8:              llama.attention.head_count_kv u32              = 32
llama_model_loader: - kv   9:     llama.attention.layer_norm_rms_epsilon f32              = 0.000010
llama_model_loader: - kv  10:                          general.file_type u32              = 15
llama_model_loader: - kv  11:                       tokenizer.ggml.model str              = llama
llama_model_loader: - kv  12:                      tokenizer.ggml.tokens arr[str,32000]   = ["<unk>", "<s>", "</s>", "<0x00>", "<...
llama_model_loader: - kv  13:                      tokenizer.ggml.scores arr[f32,32000]   = [0.000000, 0.000000, 0.000000, 0.0000...
llama_model_loader: - kv  14:                  tokenizer.ggml.token_type arr[i32,32000]   = [2, 3, 3, 6, 6, 6, 6, 6, 6, 6, 6, 6, ...
llama_model_loader: - kv  15:                tokenizer.ggml.bos_token_id u32              = 1
llama_model_loader: - kv  16:                tokenizer.ggml.eos_token_id u32              = 2
llama_model_loader: - kv  17:            tokenizer.ggml.padding_token_id u32              = 0
llama_model_loader: - kv  18:               general.quantization_version u32              = 2
llama_model_loader: - type  f32:   65 tensors
llama_model_loader: - type q4_K:  193 tensors
llama_model_loader: - type q6_K:   33 tensors
llm_load_vocab: special tokens definition check successful ( 259/32000 ).
llm_load_print_meta: format           = GGUF V2
llm_load_print_meta: arch             = llama
llm_load_print_meta: vocab type       = SPM
llm_load_print_meta: n_vocab          = 32000
llm_load_print_meta: n_merges         = 0
llm_load_print_meta: n_ctx_train      = 4096
llm_load_print_meta: n_embd           = 4096
llm_load_print_meta: n_head           = 32
llm_load_print_meta: n_head_kv        = 32
llm_load_print_meta: n_layer          = 32
llm_load_print_meta: n_rot            = 128
llm_load_print_meta: n_embd_head_k    = 128
llm_load_print_meta: n_embd_head_v    = 128
llm_load_print_meta: n_gqa            = 1
llm_load_print_meta: n_embd_k_gqa     = 4096
llm_load_print_meta: n_embd_v_gqa     = 4096
llm_load_print_meta: f_norm_eps       = 0.0e+00
llm_load_print_meta: f_norm_rms_eps   = 1.0e-05
llm_load_print_meta: f_clamp_kqv      = 0.0e+00
llm_load_print_meta: f_max_alibi_bias = 0.0e+00
llm_load_print_meta: f_logit_scale    = 0.0e+00
llm_load_print_meta: n_ff             = 11008
llm_load_print_meta: n_expert         = 0
llm_load_print_meta: n_expert_used    = 0
llm_load_print_meta: causal attn      = 1
llm_load_print_meta: pooling type     = 0
llm_load_print_meta: rope type        = 0
llm_load_print_meta: rope scaling     = linear
llm_load_print_meta: freq_base_train  = 10000.0
llm_load_print_meta: freq_scale_train = 1
llm_load_print_meta: n_yarn_orig_ctx  = 4096
llm_load_print_meta: rope_finetuned   = unknown
llm_load_print_meta: ssm_d_conv       = 0
llm_load_print_meta: ssm_d_inner      = 0
llm_load_print_meta: ssm_d_state      = 0
llm_load_print_meta: ssm_dt_rank      = 0
llm_load_print_meta: model type       = 7B
llm_load_print_meta: model ftype      = Q4_K - Medium
llm_load_print_meta: model params     = 6.74 B
llm_load_print_meta: model size       = 3.80 GiB (4.84 BPW)
llm_load_print_meta: general.name     = LLaMA v2
llm_load_print_meta: BOS token        = 1 '<s>'
llm_load_print_meta: EOS token        = 2 '</s>'
llm_load_print_meta: UNK token        = 0 '<unk>'
llm_load_print_meta: PAD token        = 0 '<unk>'
llm_load_print_meta: LF token         = 13 '<0x0A>'
llm_load_tensors: ggml ctx size =    0.11 MiB
llm_load_tensors:        CPU buffer size =  3891.24 MiB
..................................................................................................
llama_new_context_with_model: n_ctx      = 512
llama_new_context_with_model: n_batch    = 512
llama_new_context_with_model: n_ubatch   = 512
llama_new_context_with_model: freq_base  = 10000.0
llama_new_context_with_model: freq_scale = 1
llama_kv_cache_init:        CPU KV buffer size =   256.00 MiB
llama_new_context_with_model: KV self size  =  256.00 MiB, K (f16):  128.00 MiB, V (f16):  128.00 MiB
llama_new_context_with_model:        CPU  output buffer size =     0.12 MiB
llama_new_context_with_model:        CPU compute buffer size =    70.50 MiB
llama_new_context_with_model: graph nodes  = 1030
llama_new_context_with_model: graph splits = 1

system_info: n_threads = 4 / 4 | AVX = 0 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | FMA = 0 | NEON = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 0 | SSE3 = 0 | SSSE3 = 0 | VSX = 0 | MATMUL_INT8 = 0 |
sampling:
    repeat_last_n = 64, repeat_penalty = 1.000, frequency_penalty = 0.000, presence_penalty = 0.000
    top_k = 40, tfs_z = 1.000, top_p = 0.950, min_p = 0.050, typical_p = 1.000, temp = 0.800
    mirostat = 0, mirostat_lr = 0.100, mirostat_ent = 5.000
sampling order:
CFG -> Penalties -> top_k -> tfs_z -> typical_p -> top_p -> min_p -> temperature
generate: n_ctx = 512, n_batch = 2048, n_predict = -1, n_keep = 1


 안녕하세요! 이 게시물의 게시자는 게시물 내용에 대한 검색 결과를 제공하기 위해 기꺼이 찾아보고자 합니다. surely not 이해하셨습니다. 이 게시물이 어떤 뜻이�

llama_print_timings:        load time =    3380.91 ms
llama_print_timings:      sample time =      10.76 ms /   114 runs   (    0.09 ms per token, 10590.86 tokens per second)
llama_print_timings: prompt eval time =    7573.85 ms /     6 tokens ( 1262.31 ms per token,     0.79 tokens per second)
llama_print_timings:        eval time =  269687.56 ms /   113 runs   ( 2386.62 ms per token,     0.42 tokens per second)
llama_print_timings:       total time =  279081.84 ms /   119 tokens



----------


계속 기다리기 곤란하여 Ctrl + C 로 중단시켰습니다.

추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 외모와 달리 술 일절 못 마셔 가장 의외인 스타는? 운영자 24/07/01 - -
2721457 명작 목록 추가 ♥냥덩Pay♥갤로그로 이동합니다. 07.03 35 0
2721455 학벌 좋은게 최고긴해 ㅇㅇ(118.235) 07.03 63 0
2721453 싸피하는 취준생들이 유독 헛바람이 심하더라고 ㅇㅇ(112.150) 07.03 90 0
2721451 진지하게 아래기술 다써서 프젝하면 신입도 취업됨 [13] 프갤러(118.235) 07.03 261 0
2721450 C++ 인생 40 년 갈아 넣었습니다. C++ 마스터하는 방법. [2] 프갤러(59.16) 07.03 77 0
2721448 공부하기 싫을때 듣는 노래 ㅇㅇ갤로그로 이동합니다. 07.03 21 0
2721445 토마토 주스 마시는 중 발명도둑잡기갤로그로 이동합니다. 07.03 39 0
2721443 자기가 머리 좋은거 증명 안될거같으면 신입 개발자 취업 접어라 [1] ㅇㅇ(112.150) 07.03 107 1
2721441 짱꼴라 국회청원폭동 100만마리 진압하라!!!! 자유대한만세 윤카만세 통정희박대령갤로그로 이동합니다. 07.03 23 0
2721439 오곡 미숫가루 마시는 중 발명도둑잡기갤로그로 이동합니다. 07.03 23 0
2721434 콩나물 비빔밥 곱빼기로 먹고왔따 프갤러(121.172) 07.03 58 1
2721431 플젝시작 하고 퇴사선언해야지 [2] ㅇㅇ(211.234) 07.03 64 0
2721428 학벌 안좋은데 국비 듣는 애들은 열심히 하지마셈 [7] ㅇㅇ(223.39) 07.03 220 0
2721426 나는내향적이야 나는내향적이야 통정희박대령갤로그로 이동합니다. 07.03 27 0
2721425 서현역 강남역 시청역 [2] 발명도둑잡기갤로그로 이동합니다. 07.03 59 0
2721423 날 왜 부르지 싶은 곳에서 면접 제의가 왔다 [1] 프갤러(220.84) 07.03 52 0
2721421 비전공자 입문 C 필요성 [10] 프갤러(14.37) 07.03 116 0
2721420 빵집을 그냥 지나쳤다 발명도둑잡기갤로그로 이동합니다. 07.03 22 0
2721419 요즘 차량개돌 때문에 초록불에도 좌우살펴야 함 헬마스터갤로그로 이동합니다. 07.03 28 0
2721417 요즘 인도로 차량 개돌이 유행이라는데 [2] 헬마스터갤로그로 이동합니다. 07.03 60 1
2721416 나트륨 퇴근 못해 ㅜㅜ [4] 나트륨찡갤로그로 이동합니다. 07.03 48 0
2721415 스타트업이랑 좋소랑 차이가 있음? [4] 프갤러(110.13) 07.03 93 0
2721414 ⭐+남자칭구❤+ [1] ♥냥덩Pay♥갤로그로 이동합니다. 07.03 50 0
2721413 카카오 구름톤 트레이닝이거 아는 사람 있나요? [5] 프갤러(61.253) 07.03 64 0
2721412 삼촌들 다들 커피 한 잔 하고 하이소 40대프린이(121.189) 07.03 33 0
2721411 살자... 프갤러(211.36) 07.03 18 0
2721410 딱국이 요즘 어디감? [3] 프갤러(211.112) 07.03 81 1
2721408 비전공 전산 [2] 프갤러(223.39) 07.03 81 0
2721407 솔직히 마크다운 같이 문단을 P태그로 표현하는 것보다, ㅇㅇ(49.105) 07.03 27 0
2721406 왜 RX만 붙으면 죄 병신이 되는거같노 [2] 프갤러(118.33) 07.03 63 0
2721405 밥 먹구 와야쥐~ 프갤러(121.172) 07.03 51 1
2721404 씨발대기업개새끼들때문에내가이재명못끊지ㅋㅋ씹새끼들대가리딱대 보법E노무현갤로그로 이동합니다. 07.03 33 0
2721403 제조 it 왜 욕하는거임? [3] 프갤러(121.135) 07.03 93 0
2721401 사소한 디테일이 나비효과 [1] ♥냥덩Pay♥갤로그로 이동합니다. 07.03 37 0
2721399 피곤하고 우울해 주아갤로그로 이동합니다. 07.03 24 0
2721398 깃허브 잔디, 블로그 관리 중요함? [2] 프갤러(122.32) 07.03 104 0
2721396 정처기 필기 cbt라던데 바로 결과 알려주냐? [3] 프갤러(182.218) 07.03 50 0
2721395 급발진 관련 되어서는 프갤러(121.172) 07.03 59 1
2721394 sap는 개발자가 아니라 툴 전문가인거임 ? [2] ㅇㅇ(112.150) 07.03 65 0
2721393 나는 마크다운(markdown)이 싫어 [2] ㅇㅇ(49.105) 07.03 45 0
2721391 나님 기분 ㄱㅆㅅㅌㅊ !! [1] ♥냥덩Pay♥갤로그로 이동합니다. 07.03 48 0
2721390 [1] 보법E노무현갤로그로 이동합니다. 07.03 24 0
2721389 체력회복 ♥냥덩Pay♥갤로그로 이동합니다. 07.03 33 0
2721388 프로그래밍 공부해야하는 이유 ㅇㅇ갤로그로 이동합니다. 07.03 73 0
2721387 자체서비스 기업이 좋은게 아님 ㅇㅇ(210.178) 07.03 80 0
2721386 경찰 입벌구 "스키드 마크 아니다... 유류물 흔적이다" 프갤러(106.250) 07.03 34 0
2721385 개인적인 웹서버 순위 ㅇㅇ(218.157) 07.03 61 1
2721384 남자 30살인데 취업 되냐 ? [4] ㅇㅇ(112.150) 07.03 175 0
2721383 서소문로 사고 아래글들과 내용 일치 도리스아 sky(223.62) 07.03 21 0
2721382 지금 스타트업은 썩은감귤박스인듯 ㅇㅇ(210.178) 07.03 57 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2