묻고 답해요
131만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
파인튜닝 GPU 사용
autotrain-advanced를 사용하여 파인튜닝 할때 리눅스 서버에 gpu를 사용하려면 어떻게 해야하나요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
파인튜닝 중 학습 중지
파인튜닝을 진행하다가 어떠한 이유로 서버가 꺼진다거나, 중간에 모델을 확인하고 싶어서 학습을 중단하고 싶을때, 현재까지 학습된 내용을 저장하려면 어떻게 해야할까요? 예를들어 학습도중 서버가 중단되어 학습이 멈춰버리면 현재까지 학습된 내용에서 이어서 학습을 하고싶으면 어떻게해야하는지 궁금합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
autotrain-advanced install 에러
!pip install -q autotrain-advanced를 통해서 autotrain-advanced를 설치하려고 하면 다음과 같은 에러가 뜨는데 어떻게 해결해야 하나요?ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. lida 0.0.10 requires kaleido, which is not installed. llmx 0.0.15a0 requires cohere, which is not installed. llmx 0.0.15a0 requires openai, which is not installed. tensorflow-metadata 1.14.0 requires protobuf<4.21,>=3.20.3, but you have protobuf 4.23.4 which is incompatible. tensorflow-probability 0.22.0 requires typing-extensions<4.6.0, but you have typing-extensions 4.9.0 which is incompatible. !autotrain llm --train \ --project_name "llama2-korquad-finetuning-da" \ --model "TinyPixel/Llama-2-7B-bf16-sharded" \ --data_path "data" \ --text_column "text" \ --use_peft \ --use_int4 \ --learning_rate 2e-4 \ --train_batch_size 8 \ --num_train_epochs 40 \ --trainer sft \ --model_max_length 256이 부분에서는 다음과 같은 에러가 나옵니다. usage: autotrain <command> [<args>] AutoTrain advanced CLI: error: unrecognized arguments: --use_peft --use_int4
-
해결됨2시간으로 끝내는 프론트엔드 테스트 기본기
cypress와 함께 사용하면되는건가요?
Jest와 Cypress중에 하나만 사용 하라고 하셨는데storybook은 Jest와 함께 사용하거나 Cypress와 함께 사용해도 될까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
llama 2 파인튜닝 Maximum length, Temperature
안녕하세요.저는 현재 llama2 모델을 KorQuad 데이터셋을 이용하여 파인튜닝하는 실습을 진행중에 있습니다.파인튜닝 후에 궁금한게 생겼는데, 강의에서 처럼 KorQuad 데이터셋을 이용하여 llama2 모델을 파인튜닝을 한 뒤에 Chat GPT API 처럼 Maximum length 나 Temperature 등을 파라미터로 넣어서 답변의 길이나 Temperature 를 조절 할 수 있을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
파인 튜닝 Prompt
이번 강의의 다음 코드에서 왜 prompt 의 instruction 과 response 앞에 ### 을 넣어주는건가요? # 빠른 학습을 위해 20개만 추출 num_items = 20 final_prompt_list = [] for idx, (question, answer) in enumerate(refined_dict.items()): if idx >= num_items: break prompt = f"Below is an instruction that describes a task. Write a response that appropriately completes the request. ### Instruction: {question} ### Response: {answer}" print(idx, prompt) prompt_dict = {} prompt_dict['text'] = prompt final_prompt_list.append(prompt_dict)
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
채팅 모델이 아닌 자동완성 모델 파인튜닝
LLama2 모델을 이용하여 특정 분야의 리포트를 작성해주는 모델로 파인튜닝 하고 싶습니다.(Chat GPT 의 complete 모델 처럼)너무 막연한 질문이긴 하지만..이때 필요한 데이터 셋의 형태는 어떤 형태이며, 어떤 모델을 어떤식으로 파인튜닝을 진행해야하는지 가이드를 주실 수 있을까요?예를들어 제가 원하는 모델은 input 으로 "안녕하세요. 이번 보고서" 라는 텍스트를 넣으면 output 으로 "에서는 다음과 같은 내용을 다룰예정입니다." 의 텍스트가 나오는 것 입니다.input 텍스트를 넣으면 input 텍스트 이후에 올 수 있는 특정 분야에 관련된 텍스트를 자동으로 완성해주는 모델을 만들기 위해서 어떤식으로 접근해야 할까요?
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
autotrain로 fine tuning 후 embedding vector 구하는 방법이 있을까요?
안녕하세요. mistral 과 llama2를 사용해서 embedding vector를 통해 챗봇을 구현하고 있습니다. 기존 모델로 embedding vector를 구하면 답변 검색이 잘 되지 않아서 파인튜닝을 한 후에 embedding vector를 구하려고 합니다. 학습과정에서 알려주신 대로 mistral 과 llama2의 fine tuning을 완료 했습니다. fine tuning한 모델에서 generate는 잘 동작하나, embedding vector가 생성이 되질 않아 질문 드립니다. 기존 모델을 통한 임베딩 방식은 다음과 같습니다. seq_ids = tokenizer(text, return_tensors='pt')["input_ids"]embedding = model(seq_ids)["last_hidden_state"].mean(axis=[0,1]).detach().numpy()기존 원본 모델에서는 'last_hidden_state' 값을 통해서 계산하지만fine tuning한 모델에서는 'logits' 값만 존재 합니다. - 원본 모델 리턴값 : odict_keys(['last_hidden_state'])- fine tuning 모델 리턴값 : odict_keys(['logits']) 그래서 파인튜닝한 모델을 보면 Peft 와 Lora로 한번 레이어로 감싼 형태로 리턴되서 그럴꺼라 추측하는데요.기존 모델 MistralForCausalLM( (model): MistralModel( (embed_tokens): Embedding(46081, 4096, padding_idx=2) (layers): ModuleList( (0-31): 32 x MistralDecoderLayer( (self_attn): MistralAttention( (q_proj): Linear(in_features=4096, out_features=4096, bias=False) (k_proj): Linear(in_features=4096, out_features=1024, bias=False) (v_proj): Linear(in_features=4096, out_features=1024, bias=False) (o_proj): Linear(in_features=4096, out_features=4096, bias=False) (rotary_emb): MistralRotaryEmbedding() ) (mlp): MistralMLP( (gate_proj): Linear(in_features=4096, out_features=14336, bias=False) (up_proj): Linear(in_features=4096, out_features=14336, bias=False) (down_proj): Linear(in_features=14336, out_features=4096, bias=False) (act_fn): SiLUActivation() ) (input_layernorm): MistralRMSNorm() (post_attention_layernorm): MistralRMSNorm() ) ) (norm): MistralRMSNorm() ) (lm_head): Linear(in_features=4096, out_features=46081, bias=False) ) 파인튜닝한 모델 PeftModelForCausalLM( (base_model): LoraModel( (model): MistralForCausalLM( (model): MistralModel( (embed_tokens): Embedding(46081, 4096, padding_idx=2) (layers): ModuleList( (0-31): 32 x MistralDecoderLayer( (self_attn): MistralAttention( (q_proj): Linear4bit( in_features=4096, out_features=4096, bias=False (lora_dropout): ModuleDict( (default): Dropout(p=0.05, inplace=False) ) (lora_A): ModuleDict( (default): Linear(in_features=4096, out_features=16, bias=False) ) (lora_B): ModuleDict( (default): Linear(in_features=16, out_features=4096, bias=False) ) (lora_embedding_A): ParameterDict() (lora_embedding_B): ParameterDict() ) (k_proj): Linear4bit(in_features=4096, out_features=1024, bias=False) (v_proj): Linear4bit( in_features=4096, out_features=1024, bias=False (lora_dropout): ModuleDict( (default): Dropout(p=0.05, inplace=False) ) (lora_A): ModuleDict( (default): Linear(in_features=4096, out_features=16, bias=False) ) (lora_B): ModuleDict( (default): Linear(in_features=16, out_features=1024, bias=False) ) (lora_embedding_A): ParameterDict() (lora_embedding_B): ParameterDict() ) (o_proj): Linear4bit(in_features=4096, out_features=4096, bias=False) (rotary_emb): MistralRotaryEmbedding() ) (mlp): MistralMLP( (gate_proj): Linear4bit(in_features=4096, out_features=14336, bias=False) (up_proj): Linear4bit(in_features=4096, out_features=14336, bias=False) (down_proj): Linear4bit(in_features=14336, out_features=4096, bias=False) (act_fn): SiLUActivation() ) (input_layernorm): MistralRMSNorm() (post_attention_layernorm): MistralRMSNorm() ) ) (norm): MistralRMSNorm() ) (lm_head): Linear(in_features=4096, out_features=46081, bias=False) ) ) ) fine tuning을 한 모델에서는 embedding vector 를 구하는게 불가능한건가요? +추가 model.merge_and_unload() 를 써봤지만 소용없었습니다.
-
해결됨서류탈락은 그만! 챗GPT로 기업별 맞춤 합격 이력서 반자동화하기
자개소개서 (대학교 교직원 채용 분야) 작성 관련 문의
안녕하세요 할리님~지난 주 할리님의 무료강의를 듣고 인프런 강의를 구매 후, 알려주신 방법을 적용하여 자소서를 부리나케 쓰고 있는 한 수강생 입니다!영상에서 알려주신대로 'STAR' 전략을 활용하여 자기소개서를 쓰려고 하는데요!우선 자기소개서에서 요구하는 항목이 아래의 네가지 항목인데요!(공통) 자신을 잘 표현할 수 있는 특별한 사건이나 경험 등을 중심으로 본인의 삶에 대해 자유롭게 작성해 주십시오.(일반행정) 대학 행정의 역할에 대한 본인의 생각을 서술하고, 본인이 우리대학이 요구하는 인재에 적합한 사유를 본인의 경험 및 역량과 연계하여 구체적으로 작성해 주십시오. (공통) 본인의 적극적인 노력으로 기존방식에서 탈피하여 새로운 관점 및 아이디어를 제시하여 실행에 옮겼던 경험이나, 협업을 통해 조직 또는 팀의 목표를 달성했던 경험에 대해 구체적으로 기술해 주십시오. (선택/개조식) 업무 경력이 있으신 경우 본인이 수행했던 담당업무 및 주요실적에 대해 기술해 주십시오. 대학교 자소서 항목들이 대게 그렇듯이 '배경 - 문제점 - 행동 - 결과'의 과정으로 나오기에는 정량적 증빙이 어려운 일들이 많고(행정 처리 중심의 일을 하다보니) 분석이 명확히 나오는게 어려운 부분인 것 같은데, 어떻게 접근하면 좋을지 감이 오지 않습니다.그래도 우선 채용공고를 복붙하고 역량분석까지 표로 체크하기는 챗gpt를 통해서 했는데, 분석 후 저 네가지 항목을 토대로 예시 문항을 적어달라고 하고 수정하는 식의 단계로 진행해도 될까요? 그럼 너무 대직의 느낌이 될까요....
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
openapi 키 발급 후 코드를 작성하였더니 오류가 뜹니다
맥북 환경에서 진행중입니다. 다음과 같이 진행했는데, bill 관련 에러가 뜨는 것 같습니다.오류화면 작성코드 client = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "how to make a pizza"}], api_key="sk-등등" )
-
해결됨초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
벨로그 공개 포스팅 업로드 관련 문의
안녕하세요 강사님 좋은 강의 잘 듣고 있습니다.다름이 아니라 강의 내용과 ppt 이미지 등과 제 생각을 토대로 벨로그 등에 정리하려고 하는데공개 포스팅으로 등록해도 괜찮을지 문의 드립니다. 당연히 출처와 링크를 꼭 남기도록 하겠습니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
autotrain advanced 질문
autotrain advanced 사용시 --use_peft 옵션을 사용하면 어떤 peft 방식을 사용하게 되는건가요?autotrain advanced 사용시 LoRA, Prefix Tunning 등 특정 방식으로 학습하도록 선택이 가능한가요?autotrain advanced에서 --use_peft 등 parameter 값들에 대한 사용법이나 정보를 어디서 얻을 수 있나요? document 페이지를 찾아보려고 하는데 내용이 잘 없는것같아서요.autotrain advanced는 유료인가요? 이런 페이지를 봤습니다. https://huggingface.co/docs/autotrain/cost
-
해결됨서류탈락은 그만! 챗GPT로 기업별 맞춤 합격 이력서 반자동화하기
경력기술서와 이력서, 포트폴리오의 차이점
일단 저는1. 경력기술서 + 이력서2. 포트폴리오준비해서 서류넣고 있는데,1 번은 이력서와 경력기술서를 동시에 하다보니- 인적사항- 자기소개- 스킬 셋iOSSwiftUITest, XCTestUIKit, StoryBoardRxSwift, RxCocoa, RxRelaySanpKit, FlexLayout, PinLayoutMoyafastlaneMultiPlatformFlutterRxDartFVMCooperationNotionJiraSlackDiscord - 프로젝트 ( 강조하고싶은 것 상단에, 나머지는 최신순으로)Project TeamiOS Developer'사이드프로젝트' 런칭2023.05 - 현재Description프로젝트 간단설명기획자, 디자이너, 백엔드 개발자, iOS 개발자로 이루어진 팀을 조직하여 진행하였습니다.현재 App Store에 MVP 배포하였고 24년 6월까지 NRU 3,000명을 목표로 업데이트 진행 중입니다.ContributeCodeBaseUI +MVVM + RxSwift 기반의 아키텍쳐 설계엔드포인트 및 API 수정 용이하도록 Moya를 사용한 네트워크 모듈 개발RxSwift 6.1 권장방식에 맞춰 리팩토링하여 에러 핸들링 코드 3줄 이상 단축. 반복된 [weak self] 사용에서 파생되는 휴먼에러를 10% 이상 감소시킴Fastlane 을 사용한 배포 자동화로 5분 이상 시간 단축BaseViewController 와 BaseViewModel을 모든 뷰에서 채택하여 Navigation Action, 뷰 레이아웃 정의를 통일시켜 피쳐 초기 개발 시 3줄 이상 코드 절약FlexLayout + PinLayout 기반 UIMVP 배포 이후 프로젝트의 비션과 비전을 제시하여 동기부여 및 고도화 진행에 기여함.Tech Stack.Mob - Swift, Xcode 14.3, Github, Fastlane RxSwift, RxCocoa, Moya, FlexLayout+PinLayout, Firebase협업 - Github, NestJS 여기까지가 이력서 + 경력기술서 이구요'사이드 프로젝트 제목'서비스 소개 소개Team Team 개발기간 2023.05 - 현재참여인원 iOS 개발 2 / 백엔드 개발 2 / 기획자 1개발환경 Xcode 14.3 / Swift / Min Target: 15.0fastlane RxSwift RxCocoa RxRelay CodebaseUI FlexLayout + PinLayout Moya ResfulAPI담당업무비즈니스 로직 분리와 상태관리를 위한 MVVM + RxSwift 패턴 채택네트워크 추상화 클래스로 API 사용을 간편화하고 엔드포인트 관리가 용이하도록 Moya 채택BaseViewController 와 BaseViewModel을 모든 뷰에서 채택하여 Navigation Action, 뷰 레이아웃 정의를 통일시켜 피쳐 개발 시 3줄이상 코드 단축RxSwift 6.1 권장 방식에 맞도록 리팩토링을 통해 에러 핸들링 코드를 3줄 이상 단축하고, 반복된 [weak self] 사용에서 파생되는 휴먼에러 10%이상 감소 시킴Fastlane을 도입하여 테스트플라이트 및 배포 시간을 5분 이상 단축클라이언트 개발의 일정 수립 및 관리MVP 배포 이후 프로젝트의 미션과 비전을 제시하여 팀의 동기부여를 이끌어내고 고도화를 진행ISSUE & Resolve토글을 사용한 이슈 및 해결과정 나머지 프로젝트들도 같은 형식으로 썻고 업무부분 내용도 위와 같이 거의 이력서와 포트폴리오가 거의 비슷합니다.크게 봤을 때 문제는1. 진행한 프로젝트들이 너무 많아서 문장을 최대한 줄여도 길이가 길다.2. Contribute의 내용은 포트폴리오의 내용과 거의 똑같다.3. 이력서는 간단하게 요약하는것이 목표인데, 경력기술서는 어느정도까지 STAR를 보여줘야할지 모르겠다4. 포트폴리오와 '이력서+경력기술서'의 내용의 차이가 무엇인지 감이 잘 잡히지 않는다이렇게 였습니다..!일단은 전체적으로 구조를 잡고 머리에 그려보려는데 개념이 잘 잡히지 않아서 힘이듭니다.. ㅠㅠ
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
가상환경 활성화시 프롬프트 변경이 없습니다.
가상환경 생성은 잘 된거 같습니다.그런데 'activate.bat'을 실행시키면 prompt 부분에 괄호 안에 가상환경 이름이 제일 앞에 붙어야 하는데 아무 변경이 없네요. 그리고 Visual Studio Code 제일 아래쪽에도 가상환경 이름이 보여지지가 않습니다.특별히 다른 오류 메시지같은 건 보이지 않는데, 어디를 확인해 보아야 할까요?...
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
You exceeded your current quota, please check your plan and billing details.
CH02에서 아래 문구를 실행했을 때, 다음과 같은 오류가 납니다.response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Tell me how to make a pizza"}])--------------------------------------------------------------------------- RateLimitError Traceback (most recent call last) c:\workspace\inflearn_chatGPT-main\ch02\02_ChatGPT_API_Code.ipynb Cell 6 line 1 ----> 1 response = openai.ChatCompletion.create( 2 model="gpt-3.5-turbo", 3 messages=[{"role": "user", "content": "Tell me how to make a pizza"}]) File c:\workspace\inflearn_chatGPT-main\ch02\ch02_env\Lib\site-packages\openai\api_resources\chat_completion.py:25, in ChatCompletion.create(cls, args, *kwargs) 23 while True: 24 try: ---> 25 return super().create(*args, kwargs) 26 except TryAgain as e: 27 if timeout is not None and time.time() > start + timeout: File c:\workspace\inflearn_chatGPT-main\ch02\ch02_env\Lib\site-packages\openai\api_resources\abstract\engine_api_resource.py:155, in EngineAPIResource.create(cls, api_key, api_base, api_type, request_id, api_version, organization, params) 129 @classmethod 130 def create( 131 cls, (...) 138 **params, 139 ): 140 ( 141 deployment_id, 142 engine, (...)... 776 rbody, rcode, resp.data, rheaders, stream_error=stream_error 777 ) 778 return resp RateLimitError: You exceeded your current quota, please check your plan and billing details.Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings... 그런데 저는 아래와 같이 기본 18달러를 전혀 소진하지 않았고, KEY도 문제없음을 확인했습니다. 무엇이 문제일까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Part2 강의 주제 질문있습니다.
안녕하세요, 신규 오픈돈 part2 수강고민중인 학생입니다.혹시 해당 강의가 한국어 기반의 LLM 일까요? (예, 영어가 아닌 한국어 기반 RAG,document)
-
미해결ChatGPT 영어 상황극 채팅 서비스 만들기 (Feat. 파이썬/장고채널스)
브라우저에서 지원하는 Voices의 종류
「TTS 엔진을 통해 메시지를 음성으로 읽어주기」 파트 수업을 듣던 중, 강사님의 화면과 다르게 20개밖에 조회가 되지 않아서 그 이유가 궁금해 글을 남기게 되었습니다.
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
matplotlib 설치시 문제
안녕하세요. matplotlib 설치시 아래와 같은 문제가 있습니다.=======================(ch01_env) D:\lectures\inflearn_chatGPT\inflearn_chatGPT-main\ch01>pip install matplotlibWARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None)) after connection broken by 'ProtocolError('Connection aborted.', ConnectionResetError(10054, '현재 연결은 원격 호스트에 의해 강제로 끊겼습니다', None, 10054, None))': /simple/matplotlib/WARNING: Retrying (Retry(total=3, ...WARNING: Retrying (Retry(total=2, ...WARNING: Retrying (Retry(total=1, ...WARNING: Retrying (Retry(total=0, ...ERROR: Could not find a version that satisfies the requirement matplotlib (from versions: none)ERROR: No matching distribution found for matplotlib==============내용을 찾아보니 아마도 제가 최근에 python을 깔아서 최신버전을 지원하는 matplotlib가 없어서인것같은데요.. python 3.12.0입니다... python을 3.11등으로 다운그레이드해야할까요?
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
ch02 실습 문의 (11/26 기준)
아래 질문해주신 분을 보고 여러모로 따라 해보고 있는데 아래와 같이 에러가 발생합니다.버전정보(ch02) C:\Users\roho\Desktop\inflearn_chatGPT-main\ch02>python -VPython 3.11.6(ch02) C:\Users\roho\Desktop\inflearn_chatGPT-main\ch02>openai -Vopenai 0.28.1 기본질문하기 실행client = openai.OpenAI(api_key = "sk-.......") response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Tell me how to make a pizza"}])에러문구--------------------------------------------------------------------------- AttributeError Traceback (most recent call last) c:\Users\roho\Desktop\inflearn_chatGPT-main\ch02\02_ChatGPT_API_Code_NewVersion.ipynb Cell 4 line 1 ----> 1 client = openai.OpenAI(api_key = "sk-..........") 3 response = client.chat.completions.create( 4 model="gpt-3.5-turbo", 5 messages=[{"role": "user", "content": "Tell me how to make a pizza"}]) AttributeError: module 'openai' has no attribute 'OpenAI' 흠.. openai 에서 OpenAI 모듈을 가지고잇지 않다는거 같은데 워낙 업데이트가 많아서.. 한번 확인 부탁드립니다추가적으로 openai api 리스트나 모듈을 볼수있는 곳도 document 에 따로있나요? 찾질못해서... 추가 문의드립니다
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Llama2 학습시 일반 질문 답변
Llama2 학습시 일반 질문 답변 관련 해서 문의드립니다. 이번강의에서 Llama2를 파인튜닝하는것 으로 알고있는데,기본적으로 학습되어있는 모델을 추가 정보를 넣어준다는 개념으로 알고 있었습니다. 결과 테스트시, 20문장 외엔 어떠한 답변도 못하는것을 확인 했는데, 저희가 사용한 모델(TinyPixel/Llama-2-7B-bf16-sharded)이 정보도 가지고 있지않아서그런건가요? 기본적인 대화가 가능한 모델은 어떤게 있을까요?