top of page
LATEST TECH ARTICLES


The Importance of AI Governance and Companies’ Efforts
Recent Advances in AI and the Emergence of AI Governance with the recent rapid advancements in artificial intelligence (AI) technology, its influence is deeply permeating our daily lives. AI is enhancing human efficiency and convenience in almost every field, including healthcare, education, finance, and manufacturing, creating new value. However, these technological innovations are intertwined with both opportunities and challenges. Behind the convenience and possibilities o
Sep 30, 2024


AI 거버넌스의 중요성과 기업의 노력
최근 인공지능(AI) 기술이 비약적으로 발전하면서 그 영향력이 우리 일상에 깊이 스며들고 있다. AI는 의료, 교육, 금융, 제조를 포함한 거의 모든 분야에서 인간의 효율성과 편의성을 높이며 새로운 가치를 창출하고 있다. 그러나 이러한 기술 혁신은 기회와 도전이 동시에 얽혀 있다. AI 기술이 제공하는 편리함과 가능성 뒤에는 윤리적, 사회적, 법적 문제들이 존재하며, 이는 무시할 수 없는 중요한 과제로 떠오르고 있다. 따라서 AI 기술이 우리 사회에 미치는 긍정적 영향뿐만 아니라 잠재적인 부정적 결과를 최소화하기 위해 AI 거버넌스 의 필요성이 대두되고 있다. AI 거버넌스는 인공지능 기술을 개발하고 배포하며 사용하는 모든 과정에서 윤리적, 법적, 사회적 책임을 지도록 만드는 규범과 관리 체계를 의미한다. AI 거버넌스의 궁극적인 목표는 AI 시스템이 인간의 가치와 사회적 규범을 존중하며, 기술이 가진 잠재적 위험을 최소화하는 동시에 최대한 많은
Sep 30, 2024


Redefining LLM Evaluation: Adapting Benchmarks for Advanced AI Capabilities
The rapid advancement of Large Language Models (LLMs) has revolutionized the field of artificial intelligence, pushing the boundaries of what machines can understand and generate. Models like GPT-4 and beyond exhibit capabilities that were once thought to be years away. However, this swift progress has highlighted significant limitations in traditional benchmarking methods, prompting a reevaluation of how we assess these sophisticated models. In this article, we'll explore wh
Sep 16, 2024


LLM 벤치마크 평가: 숨 막히는 변화의 속도, 당신의 AI는 준비됐는가?
대규모 언어 모델(LLM)의 급속한 발전은 인공지능 분야에 혁신을 가져오며, 기계가 이해하고 생성할 수 있는 범위를 확장하고 있습니다. GPT-4와 그 이상의 모델들은 과거에는 수년이 걸릴 것이라 예상했던 능력들을 이미 보여주고 있습니다. 그러나 이러한 빠른 발전은 전통적인 벤치마킹 방법의 한계를 부각시키며, 복잡한 모델들을 어떻게 평가할 것인지에 대한 재고가 필요하게 되었습니다. 이번 글에서는 LLM 벤치마크가 왜 변화하고 있는지, 최근 평가 동향, 새로운 벤치마킹 접근 방식, 그리고 미래 개발을 위한 주요 고려사항에 대해 알아보겠습니다. 왜 LLM 벤치마크가 변화하는가 LLM 역량의 급속한 발전 구식화된 벤치마크 : LLM이 더욱 고도화됨에 따라 기존의 벤치마크는 모델들을 충분히 도전하지 못하고 있습니다. 과거에는 어려웠던 작업들이 이제는 쉽게 처리되어, 고성능 모델 간의 구분이 어려워지고 있습니다. 더 큰 도전의 필요성 : 현대의 LLM의 실
Sep 16, 2024
![[Gen AI Service Launching Story] AhnLab Global AI Translation Service](https://static.wixstatic.com/media/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp)
![[Gen AI Service Launching Story] AhnLab Global AI Translation Service](https://static.wixstatic.com/media/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp)
[Gen AI Service Launching Story] AhnLab Global AI Translation Service
TecAce, an IT company based in Seattle, with 24 years of experience, has changed its vision and business strategy to AI Transformation...
Aug 1, 2024
![[생성형 AI 상용화 사례] 안랩 글로벌 전문 번역 서비스 - 개발 스토리](https://static.wixstatic.com/media/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp)
![[생성형 AI 상용화 사례] 안랩 글로벌 전문 번역 서비스 - 개발 스토리](https://static.wixstatic.com/media/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_23da74b68f6a4810a4512a8a2b7a94d8~mv2.webp)
[생성형 AI 상용화 사례] 안랩 글로벌 전문 번역 서비스 - 개발 스토리
미국 시애틀에 본사를 둔 24년 업력의 IT 업체 테크에이스는 2023년부터 회사의 비전과 사업 전략을 AI Transformation으로 변경하였으며, 지속적으로 LLM Foundation을 활용한 솔루션 개발과 파트너사 협력 과제를 수행하고 있습니다. 이번 포스팅에서는 2024년 6월에 상용화된 안랩 AI 글로벌 번역 서비스를 개발하면서 경험한 몇 가지 사례를 공유합니다. CHALLENGE 글로벌 전문 보안 회사인 (주)안랩은 IT 산업의 급성장에 따라 빠르게 진화하는 보안 취약점을 조기에 발견하고, 이에 대응하기 위해 다양한 업종의 고객에게 보안 뉴스와 정보를 제공하고 있습니다. 이러한 과정에서 수많은 전문 보안 용어가 등장하며, 같은 용어라도 일반적인 뜻과 다른 의미를 내포하는 경우가 많아 보안 전문 번역을 반드시 필요로 합니다. 글로벌 IT 시장에서 보안 위험이 발견되면 신속하게 최신 보안 리포트를 배포해야 하지만, 보안 전문 용어와 안랩
Aug 1, 2024
![[백서] AI 산업의 안정성과 위협에 대한 보완 방안: 독립적인 AI 감리 기관 도입의 필요성](https://static.wixstatic.com/media/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp)
![[백서] AI 산업의 안정성과 위협에 대한 보완 방안: 독립적인 AI 감리 기관 도입의 필요성](https://static.wixstatic.com/media/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp)
[백서] AI 산업의 안정성과 위협에 대한 보완 방안: 독립적인 AI 감리 기관 도입의 필요성
백서 AI 산업의 안정성과 위협에 대한 보완 방안: 독립적인 AI 감리 기관 도입의 필요성 한창환, 김성진, 이은석, 이한수, 김융 2024년 7월 8일 목차 서론 AI 기술의 불확실성과 비신뢰성 문제 건설 산업의 시공사-감리사 모델 독립적인 AI 감리 기관의 필요성 AI 감리 기관의 역할과 책임 정책적 보완 방안 적용 가능 사례 연구 결론 서론 AI 기술이 빠르게 발전하면서 다양한 산업에서 혁신적인 변화를 주도하고 있습니다. 그러나 AI 시스템의 불확실성과 비신뢰성은 그 자체로 큰 위협이 되고 있습니다. 본 백서에서는 이러한 문제를 해결하기 위해 독립적인 AI 감리 기관의 도입 필요성을 제안합니다. 이를 통해 AI 기술의 안정성과 신뢰성을 확보하고, AI 산업의 지속 가능한 발전을 도모하고자 합니다. AI 기술의 불확실성과 비신뢰성 문제 AI 시스템은 복잡한 알고리즘과 대규모 데이터에 기반하여 작동합니다. 이러한 특성으로 인해 다음과
Jul 8, 2024
![[White Paper] Enhancing AI Industry Stability and Mitigating Threats: The Necessity of Independent AI Supervision Institutions](https://static.wixstatic.com/media/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp)
![[White Paper] Enhancing AI Industry Stability and Mitigating Threats: The Necessity of Independent AI Supervision Institutions](https://static.wixstatic.com/media/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_21dc88bd4357432e8e8e8317eedaa634~mv2.webp)
[White Paper] Enhancing AI Industry Stability and Mitigating Threats: The Necessity of Independent AI Supervision Institutions
A white paper on the Enhancing AI Industry Stability and Mitigating Threats: The Necessity of Independent AI Supervision Institutions Author: Chang Han, Sungjin (James) Kim, Eun Seok Lee, Hansoo Lee, and Yung Kim Date: July 8, 2024 Table of Contents Introduction Issues of Uncertainty and Unreliability in AI Technology Construction Industry's Contractor-Supervisor Model The Need for Independent AI Supervision Institutions Roles and Responsibilities of AI Supervision Institutio
Jul 8, 2024
![[DeepTecTok #2] Model Improvement through Fine-tuning of Translation-specialized LLM](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
![[DeepTecTok #2] Model Improvement through Fine-tuning of Translation-specialized LLM](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
[DeepTecTok #2] Model Improvement through Fine-tuning of Translation-specialized LLM
The following text has been translated from Korean to English using AssistAce . Sungjin (James) Kim, Ph.D. | LinkedIn | YouTube Case Study of Translation LLM Fine-Tuning Introduction The technology of Large Language Models (LLMs) is advancing rapidly. There are various ways to utilize LLMs, including prompting, embedding, and fine-tuning. In this article, we will focus on fine-tuning, which requires a significant amount of GPU computing resources. While it is possible to sec
May 21, 2024
![[DeepTecTok #2] 번역 특화 모델(LLM)의 미세조정을 통한 모델 향상 사례](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
![[DeepTecTok #2] 번역 특화 모델(LLM)의 미세조정을 통한 모델 향상 사례](https://static.wixstatic.com/media/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_5ee47f346b9a4a04b9ac9897d66d2543~mv2.webp)
[DeepTecTok #2] 번역 특화 모델(LLM)의 미세조정을 통한 모델 향상 사례
Sungjin (James) Kim, Ph.D. | LinkedIn | YouTube 번역 전문 LLM 파인튜닝 사례 들어가기 거대언어모델 (Large Language Model; LLM) 기술이 날로 발전하고 있다. LLM을 활용하는 방법은 여러가지가 있으며 활용하기 위한 기본 방법으로는 프롬프팅, 임베딩, 파인튜닝 등이 있다. 이 글에서는 이 중에 GPU 컴퓨팅 리소스를 많이 필요로 하는 파인튜닝 방법을 다루고자 한다. 고성능 컴퓨팅 리소스는 디바이스로 확보해서 사용할 수도 있지만 클라우드 환경에서 사용한다면 좀 더 번거러움을 줄일 수 있는 장점이 있다. 이런 상황에 맞추어 클라우드에서 AI 학습과 추론을 편하게 할 수 있는 특화된 클라우드 서비스들이 많이 나오고 있다. Vessl은 그 중의 하나로 LLM을 비롯한 생성AI를 다루는 부분도 기본적으로 고려되고 있는 서비스이다[1]. 이 글에서는 LLM 중의 하나인 M2M100 모델을 Vessl
May 21, 2024
![[Case Study] 조금 더 지능적이고 시스템 적인 문서요약 방법 by AssistAce for Summary](https://static.wixstatic.com/media/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp)
![[Case Study] 조금 더 지능적이고 시스템 적인 문서요약 방법 by AssistAce for Summary](https://static.wixstatic.com/media/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp)
[Case Study] 조금 더 지능적이고 시스템 적인 문서요약 방법 by AssistAce for Summary
최근 LLM을 활용한 AI 솔루션 중 가장 쉽게 도움을 받을 수 있는 기능 중 하나는 단연 요약 (Summary) 기능입니다. 긴 문서나 이해하기 어려운 문서를 짧고 이해하기 쉬운 내용으로 요약할 수 있다는 점에서 매우 유용합니다 . 이 기능은 이미 널리 활용되고 있으며, 뉴스, PDF문서, 웹페이지 등 다양한 형태의 문서 요약에 쉽게 접근할 수 있습니다. Challenge 요약에 대한 고객들의 피드백을 통해 알 수 있듯, 요약기능에도 고개의 다양한 기대가 있음을 알 수 있었습니다. 일부 고객은 뉴스 요약을 원하고 다른 고객들은 기술 문서나 수 많은 제품 리뷰 등을 간단히 정리하길 원합니다. 또한 요약본이 누구에 의해 읽히느냐, 어떤 목적으로 사용되느냐 에 따라 요약본의 만족도를 상대적으로 평가할 필요가 있습니다. 정리하자면 아래의 요소들에 의해 요약본은 다르게 생성되어야 합니다. 문서의 종류 ex) 기술문서, 뉴스, 제품 리뷰, 인터뷰(회의록),
Apr 22, 2024
![[Case Study] A More Intelligent and Systematic Document Summarization Method by AssistAce for Summary](https://static.wixstatic.com/media/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp)
![[Case Study] A More Intelligent and Systematic Document Summarization Method by AssistAce for Summary](https://static.wixstatic.com/media/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_de1e06aa3171441693e1e8db3d251560~mv2.webp)
[Case Study] A More Intelligent and Systematic Document Summarization Method by AssistAce for Summary
The following text has been translated from Korean to English using AssistAce . One of the easiest AI solutions to help with LLM...
Apr 22, 2024


The Future of Data Utilization: Understanding and Prospects of Retrieval-Augmentation Generation (RAG) Technology
The following text has been translated from Korean to English using AssistAce . What is RAG? The importance of data in the business environment is growing. Companies face many challenges in effectively managing vast data and making strategic decisions based on it. In this situation, the Retrieval-Augmented Generation (RAG) technology is attracting attention. RAG is a form of machine learning that combines data retrieval and information creation to provide more accurate and re
Apr 8, 2024


데이터 활용의 미래: 검색 증강 생성(RAG) 기술의 이해와 전망
RAG란? 비즈니스 환경에서 데이터의 중요성이 갈수록 커지고 있다. 기업들은 방대한 데이터를 효과적으로 관리하고, 이를 기반으로 전략적 결정을 내리는 과정에서 많은 도전에 직면한다. 이런 상황에서 검색 증강 생성(Retrieval-Augmented Generation, RAG) 기술이 눈길을 끌고 있다. RAG는 데이터 검색과 정보 생성을 결합하여 사용자의 질문에 대한 보다 정확하고 관련성 높은 답변을 제공하는 머신 러닝의 한 형태다. 자연어 처리(NLP) 분야에서 특히 주목받는 RAG는 기존의 모델이 학습한 정보에만 의존하는 대신, 관련 정보를 검색해 모델 입력에 추가하는 방식으로 작동한다. 이 방식을 통해, 모델은 새로운 질문이나 문제에 대응할 때 외부에서 검색한 정보를 참조함으로써 더 정확하고 다양한 답변을 생성할 수 있다. 대규모 언어 모델(Large Language Models, LLMs)의 기능을 특정 도메인이나 조직의 내부 지식 베이스
Apr 8, 2024
![[DeepTecTok #1] AI LLM 구조와 트랜스포머 활용](https://static.wixstatic.com/media/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp)
![[DeepTecTok #1] AI LLM 구조와 트랜스포머 활용](https://static.wixstatic.com/media/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp)
[DeepTecTok #1] AI LLM 구조와 트랜스포머 활용
Sungjin (James) Kim, Ph.D. | LinkedIn | YouTube 목차 들어가며 트랜스포머 구조와 동작 원리 인코더 동작 디코더 동작 트랜스포머 기반 LLM의 종류와 활용 Encoder 단독 방식 Decoder 단독 방식 Encoder-Decoder 방식 최신 방식들 시사점 들어가며 생성형 인공지능 (Generative AI; GenAI) 중의 한가지인 거대언어모델 (Large language model; LLM)은 트랜스포머 구조가 발표되면서 많은 발전이 있어 왔다[1]. 트랜스포머 구조는 2017년 구글이 발표한 "Attention is All You Need" 논문에서 처음 소개되었다. 이 구조는 이전의 시퀀스-투-시퀀스(Sequence-to-Sequence) 모델들과는 다르게, 전체 시퀀스를 한 번에 처리할 수 있는 '어텐션(Attention)' 메커니즘을 중심으로 설계되어 있다 [1, 2, 3]. 이후 GPT가 기본
Mar 18, 2024
![[DeepTecTok #1] AI LLM Structure and Use of Transformer](https://static.wixstatic.com/media/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp/v1/fill/w_444,h_250,al_c,q_30,blur_30,enc_avif,quality_auto/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp)
![[DeepTecTok #1] AI LLM Structure and Use of Transformer](https://static.wixstatic.com/media/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp/v1/fill/w_300,h_169,al_c,q_90,enc_avif,quality_auto/2ea07e_c18edb08403046dbac265a3cf45e61d7~mv2.webp)
[DeepTecTok #1] AI LLM Structure and Use of Transformer
Sungjin (James) Kim, Ph.D. | LinkedIn Table of Contents Introduction The Structure and Operating Principle of the Transformer Encoder Operation Decoder Operation Types and Applications of Transformer-based LLMs Encoder-Only Approach Decoder-Only Approach Encoder-Decoder Approach Latest Methods Implications Introduction Generative AI (GenAI), including Large Language Models (LLMs), has seen significant advancements since the introduction of the transformer architecture[1]. Int
Mar 18, 2024


GPT Wrapper: AI를 간편하게 활용하는 새로운 방식
본 글은 AssistAce 를 이용하여 영문에서 한글로 번역되었습니다. OpenAI의 최근 성공과 널리 퍼진 API 덕분에, GPT Wrapper가 테크업계에서 인기 있는 도구로 떠올랐습니다. 이 Wrapper라는 것은 사용자가 OpenAI의 API와의 상호작용을 더욱 쉽게 할 수 있도록 도와주는 소프트웨어 계층입니다. 이 애플리케이션에 AI 기능을 통합하는 과정을 단순화시켜, AI에 대한 전문 지식이 부족한 사람들도 ChatGPT나 DALL-E 같은 고급 모델을 활용할 수 있게 합니다. 이 글에서는 GPT Wrapper의 자세한 특징을 살펴보고, 일반적인 애플리케이션과의 차이점, 그리고 이 도구의 장점과 단점을 알아볼 예정입니다. GPT Wrapper란? GPT Wrapper는 기본적으로 미들웨어, 즉 두가지의 개별 애플리케이션을 연결하여 그들의 상호 작용을 용이하게 해주는 소프트웨어입니다. 이러한 맥락에서 Wrapper는 OpenAI의 고급 A
Mar 4, 2024


GPT Wrappers: A Simple Way to Harness AI for Enhanced Solutions
With OpenAI’s late successes and the widespread distribution of their own API, the concept of GPT wrappers has emerged as a popular tool for the tech industry. GPT wrappers are layers of software that provide a more accessible interface to interact with OpenAI's APIs. They simplify the process of integrating AI capabilities into applications, enabling even those with limited AI expertise to leverage the advanced functionalities of models like ChatGPT or DALL-E. With this piec
Mar 4, 2024


LLM 기술의 신뢰성의 핵심: LLM 결과 평가
본 글은 AssistAce 를 이용하여 영문에서 한글로 번역되었습니다. Large Language Models (LLM)의 기술적 발전은 텍스트 생성, 번역, 챗봇 등 다양한 분야에서 핵심 기술로 자리매김하게 하였다. 맥락 이해와 자연어 생성 능력의 향상, 세밀 조정 API와 플러그인의 지원은 개인의 창의성과 학습에 큰 이익을 가져다준다. 하지만, 그들의 출력물의 품질 평가는 여전히 중요한 도전 과제로 남아있다. 이 포스트에서는 LLM 결과의 평가의 중요성, LLM 평가와 LLM 기반 시스템 평가의 차이, 그리고 LLM 결과 평가의 유형, 방법, 지표에 대해 설명한다. LLM 결과 평가의 중요성 LLM 결과를 평가하는 것은 여러 가지 이유로 중요하다: LLM 성능 개선 : LLM 결과를 평가함으로써 LLM 모델의 장점과 약점을 파악하고 이를 활용하여 성능을 향상시킬 수 있다. 평가 결과는 모델 학습 접근법, 데이터셋 구성, 하이퍼파라미터 조정의 개
Feb 19, 2024


The Key to Reliability in LLM Technology: Evaluating LLM Outcomes
The technological advancements in Large Language Models (LLM) have established them as a cornerstone technology in various fields such as text generation, translation, and chatbots. Improvements in context understanding and natural language generation abilities, along with the support of fine-tuning APIs and plug-ins, significantly benefit individual creativity and learning. However, the quality evaluation of their outputs remains a critical challenge. This post discusses the
Feb 19, 2024
SECURE YOUR BUSINESS TODAY
bottom of page