top of page
LATEST TECH ARTICLES
![[DeepTecTok #2] Model Improvement through Fine-tuning of Translation-specialized LLM](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
![[DeepTecTok #2] Model Improvement through Fine-tuning of Translation-specialized LLM](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
[DeepTecTok #2] Model Improvement through Fine-tuning of Translation-specialized LLM
The following text has been translated from Korean to English using AssistAce . Sungjin (James) Kim, Ph.D. | LinkedIn | YouTube Case Study of Translation LLM Fine-Tuning Introduction The technology of Large Language Models (LLMs) is advancing rapidly. There are various ways to utilize LLMs, including prompting, embedding, and fine-tuning. In this article, we will focus on fine-tuning, which requires a significant amount of GPU computing resources. While it is possible to sec
May 21, 2024
![[DeepTecTok #2] 번역 특화 모델(LLM)의 미세조정을 통한 모델 향상 사례](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
![[DeepTecTok #2] 번역 특화 모델(LLM)의 미세조정을 통한 모델 향상 사례](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
[DeepTecTok #2] 번역 특화 모델(LLM)의 미세조정을 통한 모델 향상 사례
Sungjin (James) Kim, Ph.D. | LinkedIn | YouTube 번역 전문 LLM 파인튜닝 사례 들어가기 거대언어모델 (Large Language Model; LLM) 기술이 날로 발전하고 있다. LLM을 활용하는 방법은 여러가지가 있으며 활용하기 위한 기본 방법으로는 프롬프팅, 임베딩, 파인튜닝 등이 있다. 이 글에서는 이 중에 GPU 컴퓨팅 리소스를 많이 필요로 하는 파인튜닝 방법을 다루고자 한다. 고성능 컴퓨팅 리소스는 디바이스로 확보해서 사용할 수도 있지만 클라우드 환경에서 사용한다면 좀 더 번거러움을 줄일 수 있는 장점이 있다. 이런 상황에 맞추어 클라우드에서 AI 학습과 추론을 편하게 할 수 있는 특화된 클라우드 서비스들이 많이 나오고 있다. Vessl은 그 중의 하나로 LLM을 비롯한 생성AI를 다루는 부분도 기본적으로 고려되고 있는 서비스이다[1]. 이 글에서는 LLM 중의 하나인 M2M100 모델을 Vessl
May 21, 2024
![[DeepTecTok #1] AI LLM Structure and Use of Transformer](https://static.wixstatic.com/media/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp)
![[DeepTecTok #1] AI LLM Structure and Use of Transformer](https://static.wixstatic.com/media/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp)
[DeepTecTok #1] AI LLM Structure and Use of Transformer
Sungjin (James) Kim, Ph.D. | LinkedIn Table of Contents Introduction The Structure and Operating Principle of the Transformer Encoder Operation Decoder Operation Types and Applications of Transformer-based LLMs Encoder-Only Approach Decoder-Only Approach Encoder-Decoder Approach Latest Methods Implications Introduction Generative AI (GenAI), including Large Language Models (LLMs), has seen significant advancements since the introduction of the transformer architecture[1]. Int
Mar 18, 2024
![[Project Log] AI 인프라 구축 사례: NVIDIA H100 SXM5](https://static.wixstatic.com/media/2ea07e_2cd726d30ca2444d9e3f7585ee4672f5~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_2cd726d30ca2444d9e3f7585ee4672f5~mv2.webp)
![[Project Log] AI 인프라 구축 사례: NVIDIA H100 SXM5](https://static.wixstatic.com/media/2ea07e_2cd726d30ca2444d9e3f7585ee4672f5~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_2cd726d30ca2444d9e3f7585ee4672f5~mv2.webp)
[Project Log] AI 인프라 구축 사례: NVIDIA H100 SXM5
배경 AI산업이 급성장함에 따라, 온프레미스 AI 인프라 구축사례가 지속 증가하고 있습니다. 저희 테크에이스는 컴퓨팅 솔루션 전문 기업 에이맥스와의 파트너쉽 을 통하여, 엔비디아의 고성능 텐서 코어 장비인 H100, A100 모델 등을 정부기관 및 산업체에 공급 하고 있습니다. 특히 고사양 HPC의 경우 발주부터 설치까지의 리드타임이 최대 52주 이상 발생되는 상황이지만, 저희 테크에이스는 미국 워싱턴에 본사를 두고 20년이상 영업망을 구축하고 있기에, 보다 빠르게 제품을 확보하여 적기에 공급하고 있습니다. 아울러 AI 인프라 구축시 수반되는 물류 관리, 전력 및 공간을 포함한 환경셋업, 스펙 및 기능점검, 클러스터링, 모니터링 등 설치 및 운영 작업에 대한 전문적 컨설팅과 기술 지원까지 제공하고 있습니다. 이번 아티클에서는 H100 장비의 주문, 배송 및 설치 작업이 어떻게 진행되는지에 대한 실제 고객납품 사례를 바탕으로 설명해 드리고자 합니다.
Jan 3, 2024


Closing the Gap: Solutions for the Growing GPU Rich and Poor Divide in AI Technology
Status In the AI realm, the GPU landscape is starkly divided. The technological landscape is increasingly being divided into two distinct categories: 'GPU rich' and 'GPU poor'. This division, predominantly seen in the AI industry, is creating a significant gap in capabilities and advancements between different companies and regions. This gap is primarily due to the unequal distribution and accessibility of Graphics Processing Units (GPUs). Giants like Google, Microsoft, and M
Dec 11, 2023
![[Case Study] GPU Training Impossible Deadline Achieved](https://static.wixstatic.com/media/2ea07e_55c35d2e8cc14e23b51f0467529db353~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_55c35d2e8cc14e23b51f0467529db353~mv2.webp)
![[Case Study] GPU Training Impossible Deadline Achieved](https://static.wixstatic.com/media/2ea07e_55c35d2e8cc14e23b51f0467529db353~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_55c35d2e8cc14e23b51f0467529db353~mv2.webp)
[Case Study] GPU Training Impossible Deadline Achieved
BACKGROUND The customer was looking to start an LLM project but was in a time crunch. The current solution was to purchase Nvidia’s DGX...
Jul 12, 2023
SECURE YOUR BUSINESS TODAY
bottom of page