15 Técnicas de Chunking Essenciais para Engenheiros de IA

TL;DR: O artigo explora 15 técnicas de chunking para otimizar a Retrieval-Augmented Generation (RAG), destacando como a escolha correta do método impacta a precisão e a relevância das respostas geradas por modelos de linguagem. Cada técnica, desde a divisão por linha até abordagens semânticas, se adapta a diferentes tipos de documentos e necessidades. A implementação adequada dessas técnicas é crucial para o desempenho eficaz dos sistemas de IA.

Takeaways:

  • A escolha da técnica de chunking deve ser adaptada ao tipo de documento e ao contexto de aplicação para otimizar a recuperação de informações.
  • Técnicas como chunking semântico e hierárquico oferecem abordagens mais sofisticadas para garantir a precisão das respostas em sistemas RAG.
  • A implementação adequada de técnicas de chunking é crucial para garantir que os modelos de linguagem possuam contexto rico e preciso durante a geração de respostas.
  • Fatores como tamanho dos blocos, preservação da continuidade e estrutura do documento influenciam diretamente a performance dos sistemas RAG.
  • A evolução das técnicas de chunking promete aprimorar a eficiência dos sistemas de IA, permitindo a construção de aplicações mais robustas e adaptáveis.

15 Técnicas de Chunking RAG Essenciais para Engenheiros de IA

A Retrieval-Augmented Generation (RAG) depende fortemente de como os dados são particionados (chunked) para fornecer contextos precisos e atualizados aos modelos de linguagem. Uma estratégia de chunking adequada é crucial para assegurar que cada fragmento de texto contenha informações relevantes e suficientes, permitindo recuperações mais precisas e evitando interpretações equivocadas. Os engenheiros de IA podem, assim, otimizar o desempenho dos sistemas RAG ao escolher a técnica de chunking mais apropriada para cada tipo de documento ou aplicação.

Cada técnica de chunking apresenta peculiaridades que atendem a diferentes necessidades — desde textos estruturados, com divisões claras, até conteúdos não estruturados onde as fronteiras são mais difusas. A aplicação dessas técnicas permite que o modelo recupere contextos coerentes e completos, mesmo quando o conteúdo originário é extenso ou variado. Essa diversidade de abordagens destaca a importância de se conhecer e aplicar corretamente cada método, possibilitando a personalização de soluções para projetos de inteligência artificial.

“Retrieval-Augmented Generation depende fortemente de como nós particionamos nossos dados. Se queremos que o LLM recupere um contexto que faça sentido, devemos realizar o chunking adequadamente.”
— autor desconhecido
Ao longo deste artigo, exploraremos 15 técnicas de chunking, detalhando os fundamentos, vantagens, desafios e exemplos práticos para cada abordagem.

Chunking Linha a Linha

A técnica de chunking linha a linha consiste em dividir o texto sempre que uma quebra de linha ocorre, tratando cada linha como uma unidade completa de pensamento. Essa estratégia é especialmente útil para conteúdos como logs de bate-papo e transcrições, onde cada nova linha possui seu próprio significado. Assim, torna-se possível recuperar informações de forma granular e específica para cada interação ou segmento de diálogo.

Em aplicações práticas, essa técnica se mostra ideal para ambientes de suporte ao cliente, transcrições de entrevistas ou mensagens instantâneas, em que cada linha é um indicativo de um tópico ou resposta. A clareza na divisão permite a extração de contextos individuais, facilitando a análise dos registros e permitindo que o LLM reuna rapidamente os elementos necessários para a reconstrução do diálogo. Entretanto, deve-se ter cautela, pois linhas muito curtas podem gerar alucinações devido à falta de contexto suficiente.

Um exemplo prático dessa técnica pode ser visto na divisão de conversas, onde cada mensagem – como “Alice: Hey Bob, are you free for a call at 3 PM today?” – forma um chunk distinto. Essa abordagem garante a recuperação exata do par de perguntas e respostas, como ilustrado em materiais técnicos e guias de uso. Dessa forma, os engenheiros podem ajustar a granularidade das informações conforme a necessidade do projeto.

Chunking de Tamanho Fixo

O chunking de tamanho fixo divide o texto em blocos com número predeterminado de palavras ou caracteres, ignorando o significado semântico durante o particionamento. Essa abordagem é útil para textos não estruturados, como conteúdos oriundos de OCR ou documentos digitalizados, onde não há delimitações naturais de frases. A técnica impõe uniformidade nos blocos, o que pode facilitar o processamento automatizado.

Embora a consistência no tamanho dos chunks seja uma vantagem, o método pode fragmentar sentenças ou até mesmo ideias completas, comprometendo a compreensão do conteúdo quando o contexto é essencial para a interpretação. Os engenheiros devem, assim, ajustar o tamanho dos blocos de acordo com o limite de tokens do modelo e o nível de detalhamento desejado para evitar a perda de informação crítica. A escolha do tamanho ideal depende da natureza do documento e das características do LLM utilizado.

Um exemplo prático dessa técnica consiste em dividir um texto em blocos de, por exemplo, 20 palavras, conforme demonstrado em guias técnicos. A divisão arbitrária pode quebrar sentenças, mas garante um formato regular e previsível para sistemas que lidam com grandes volumes de dados não estruturados. Essa estratégia é frequentemente aplicada em processos de digitalização e extração de informações automatizadas.

Chunking com Janela Deslizante

O chunking com janela deslizante cria blocos sobrepostos ao particionar o texto, preservando a continuidade do contexto entre os chunks. Essa técnica é especialmente indicada quando as ideias ou sentenças se estendem além dos limites rígidos dos blocos, como em textos narrativos ou documentos técnicos longos. A sobreposição permite que partes importantes do conteúdo não sejam perdidas na transição entre os fragmentos.

Ao implementar essa abordagem, pode-se definir um tamanho de chunk e um valor de sobreposição, garantindo que cada bloco mantenha um pedaço do contexto do anterior e do subsequente. Essa redundância é útil para que o LLM compreenda a transição entre conceitos, resultando em respostas mais precisas e contextualizadas durante a recuperação de informação. Contudo, é importante balancear a sobreposição para evitar armazenamento redundante excessivo.

Um exemplo ilustrativo envolve a divisão de um documento com uma janela de 15 palavras e uma sobreposição de 5 palavras, conforme descrito em materiais explicativos. Essa técnica assegura que, mesmo que uma ideia se estenda, o bloco seguinte contenha elementos que facilitam a interpretação completa do conteúdo. Assim, os engenheiros podem ajustar os parâmetros conforme a complexidade dos dados a serem processados.

Chunking Baseado em Sentenças

O chunking baseado em sentenças adota a abordagem de dividir o texto utilizando as próprias sentenças como limites, garantindo que cada chunk represente uma ideia completa e coesa. Essa técnica é particularmente eficaz para textos bem editados, como artigos, documentações e livros didáticos, onde as sentenças são estruturadas de forma lógica e coerente. Ao isolar cada sentença, o LLM pode reconstituir o contexto de maneira mais eficiente.

Entretanto, uma divisão rigorosa por sentenças pode resultar em chunks muito curtos, que, sem contextos adicionais, podem levar a interpretações ambíguas. Para compensar esse aspecto, os engenheiros podem optar por agrupar duas ou três sentenças quando necessário, visando um equilíbrio entre granularidade e contexto. A escolha da segmentação depende, portanto, do nível de complexidade e da clareza do texto original.

Um exemplo prático dessa técnica pode ser observado ao dividir um artigo em frases individuais, conforme demonstrado em guias de chunking. Cada sentença – como “Deep learning has transformed many fields of technology.” – forma um chunk focado, permitindo que o modelo recupere fragmentos específicos sem dispersar a informação. Essa abordagem simplifica a reconstrução do contexto durante a recuperação de dados.

Chunking por Parágrafo

A técnica de chunking por parágrafo consiste em tratar cada parágrafo como uma unidade de chunking, partindo do pressuposto de que cada parágrafo aborda uma única ideia ou tema. Essa estratégia preserva o fluxo lógico e a estrutura narrativa do texto, facilitando a compreensão e a recuperação das informações pelo modelo. Essa abordagem é amplamente aplicada em blogs, ensaios e documentos formatados.

Ao agrupar textos em parágrafos, o método permite uma organização intuitiva, onde o contexto se mantém integral e a progressão de ideias fica evidente. Essa característica é especialmente útil quando se trabalha com textos que já foram revisados e estruturados para a leitura humana, mantendo a coesão de cada bloco de pensamento. No entanto, a eficácia depende de uma formatação adequada do documento original.

Como exemplo, considere um blog post dividido em parágrafos, onde cada bloco de texto é recuperado de forma independente. Materiais técnicos demonstram que, ao tratar um parágrafo como um chunk, o LLM consegue captar o sentido completo de cada seção, fornecendo respostas mais precisas. Essa técnica é, portanto, ideal para conteúdos organizados e bem estruturados.

Chunking Baseado em Página

No chunking baseado em página, cada página de um documento é considerada um chunk individual, o que é fundamental quando a estrutura visual e a numeração são relevantes para a recuperação de informações. Essa técnica é especialmente importante em PDFs, livros e contratos legais, onde a referência ao número da página facilita a navegação e a localização de conteúdo específico. A integridade da página como unidade é preservada, mantendo a formatação original do documento.

Essa abordagem permite que os engenheiros de IA referenciem blocos de informações com base na página, contribuindo para uma recuperação mais estruturada e precisa. Embora os limites da página possam variar conforme a formatação, essa técnica garante que o contexto não seja perdido, especialmente em documentos onde a diagramação é essencial para a compreensão. É uma estratégia indispensável para aplicações que exigem alta fidelidade na apresentação dos dados.

Um exemplo prático dessa técnica envolve a divisão de um PDF em chunks por página, como ilustrado em estudos de chunking para contratos legais e livros digitais. Cada página, ao ser isolada, mantém o contexto e a estrutura originais, possibilitando o acesso rápido à informação desejada. Dessa forma, o método se adapta bem a documentos onde a formatação e a numeração são críticos para a interpretação.

Chunking Baseado em Seções ou Títulos

O chunking baseado em seções ou títulos utiliza os elementos estruturais do texto, como cabeçalhos (H1, H2 etc.), para definir os limites dos chunks. Essa técnica é ideal para documentos técnicos, whitepapers e livros, onde as seções são claramente delimitadas e cada uma aborda um tópico específico. A abordagem facilita a recuperação de informações, pois cada chunk corresponde a uma divisão lógica do conteúdo.

Ao utilizar os títulos como delimitadores, o método permite uma recuperação direcionada, em que o LLM pode identificar facilmente seções relevantes para uma consulta específica. Essa organização hierárquica não apenas melhora a precisão da extração, mas também agiliza a navegação pelo documento. No entanto, a eficácia desse chunking depende da consistência e clareza dos cabeçalhos no texto original.

Um exemplo ilustrativo dessa técnica pode ser encontrado na divisão de um documento técnico onde os cabeçalhos (“# Introduction”, “# How RAG Works” etc.) definem cada chunk, conforme demonstrado em guias de chunking. A correspondência entre os limites naturais do texto e os chunks facilita o processamento e a recuperação do contexto desejado. Assim, o uso de seções e títulos se mostra uma abordagem robusta para conteúdos bem estruturados.

Chunking Baseado em Palavras-Chave

A técnica de chunking baseado em palavras-chave divide o texto sempre que determinadas palavras ou marcadores aparecem, funcionando como pontos de corte que separam blocos de informações. Essa abordagem é útil para registros estruturados, formulários, logs e instruções técnicas, onde palavras como “Passo”, “Diagnóstico” ou “Nota” indicam a delimitação natural das informações. Dessa forma, o texto é segmentado em blocos coerentes, cada um contendo um conjunto relacionado de dados.

Essa técnica possibilita a recuperação de informações específicas com base em palavras-chave, facilitando o acesso a dados relevantes sem a necessidade de percorrer o documento na íntegra. No entanto, a escolha das palavras-chave deve ser realizada cuidadosamente para evitar cortes inadequados que possam fragmentar um mesmo contexto. A precisão na definição dos marcadores e sua consistência ao longo do documento são fundamentais para o sucesso do método.

Como exemplo, imagine um registro médico onde a palavra “Diagnóstico:” delimita o início de um bloco informativo, enquanto “Nota:” sinaliza outro. Esse método agrupa as informações correlatas, proporcionando uma extração mais organizada, conforme demonstrado em exemplos práticos de chunking. Com essa estratégia, é possível otimizar a recuperação de dados em contextos técnicos e regulamentados.

Chunking Baseado em Entidades

O chunking baseado em entidades utiliza técnicas de Reconhecimento de Entidades Nomeadas (NER) para agrupar frases e parágrafos que fazem referência a determinadas entidades, como pessoas, organizações ou produtos. Essa abordagem se revela extremamente útil em contextos onde a identificação de referências específicas é fundamental, como notícias, análises de produtos ou documentos legais. Ao reagrupar o conteúdo de acordo com as entidades citadas, o método melhora a precisão na recuperação de informações relacionadas a um tópico específico.

A aplicação dessa técnica permite que o LLM, por exemplo, responda a perguntas como “O que a Apple anunciou?” ao recuperar todos os trechos referentes à empresa. Essa segmentação facilita a identificação de conexões relevantes entre as informações e minimiza a chance de perda de contexto. No entanto, para que o método seja eficaz, é essencial que o sistema de NER esteja bem treinado e adaptado ao domínio do conteúdo.

Um exemplo prático pode ser extraído de uma notícia em que são mencionadas empresas como Apple e Samsung. Cada trecho relacionado a essas entidades é agrupado separadamente, como demonstrado em guias técnicos e exemplos de chunking baseado em entidades. Essa abordagem auxilia na recuperação direcionada e na análise detalhada de cada referência, aprimorando a resposta dos sistemas RAG.

Chunking Baseado em Tokens

O chunking baseado em tokens consiste em dividir o texto de acordo com a quantidade de tokens — as unidades de processamento utilizadas pelo modelo — e não apenas pelo número de palavras. Essa técnica é fundamental quando há uma limitação no tamanho do contexto que o LLM pode processar, permitindo um controle preciso sobre a quantidade de informações que entra em cada bloco. O método garante que nenhum chunk ultrapasse o limite de tokens suportado pelo modelo, evitando cortes abruptos e erros durante a geração de respostas.

Essa abordagem é especialmente relevante para aplicações API-driven, onde o tamanho do input pode afetar diretamente o desempenho e a eficiência do processamento. Ao dividir o documento em blocos controlados por token, os engenheiros podem otimizar a utilização dos recursos computacionais e assegurar que cada segmento contenha um contexto adequado para a análise. Porém, é preciso cuidado para que a divisão não quebre sentenças importantes inadvertidamente.

Como exemplo, considere um texto onde cada chunk é definido para ter aproximadamente 25 tokens, conforme ilustrado em materiais técnicos. Essa estratégia permite que o modelo processe cada bloco sem erros de corte, mantendo a integridade dos dados e evitando perdas contextuais. Assim, o chunking baseado em tokens se apresenta como uma técnica essencial para a adaptação de textos a limites computacionais restritos.

Chunking de Tabela

A técnica de chunking de tabela é direcionada à extração de dados a partir de tabelas presentes em documentos, onde cada tabela ou parte dela é tratada como um chunk separado. Essa abordagem é particularmente útil para relatórios financeiros, faturas e artigos científicos, onde os dados em formato tabular necessitam ser mantidos em sua estrutura original para a correta interpretação. Ao isolar as tabelas do restante do texto, o sistema permite que informações estruturadas sejam recuperadas de forma precisa.

A preservação da formatação e dos delimitadores de colunas e linhas é fundamental para que a estrutura da tabela seja compreendida pelo LLM. Dessa forma, cada tabela pode ser referenciada diretamente através de seus dados, sem misturar informações de texto corrido. Essa técnica amplia a capacidade de análise de documentos que combinam elementos gráficos e textuais, facilitando a extração de dados quantitativos e qualitativos simultaneamente.

Um exemplo prático envolve a extração de uma tabela que apresenta, por exemplo, os resultados trimestrais de uma empresa, conforme demonstrado em guias técnicos de chunking. A tabela é isolada como um bloco, garantindo que os dados—como “Q1 2024: $1,000,000” e “Q2 2024: $1,200,000″—sejam recuperados integralmente. Essa estratégia é especialmente recomendada para documentos onde a estrutura tabular é essencial para a análise dos dados.

Chunking Recursivo

O chunking recursivo é uma abordagem que se inicia com uma divisão mais ampla — por exemplo, em parágrafos ou seções — e, se o resultado for muito extenso, prossegue para subdividir esses chunks em partes menores, como sentenças ou até mesmo palavras. Essa técnica garante que nenhum bloco ultrapasse o limite desejado, ajustando-se dinamicamente à complexidade do documento. O método é ideal para documentos longos e heterogêneos, onde a uniformidade dos chunks nem sempre é garantida inicialmente.

Essa estratégia hierárquica permite que o conteúdo seja segmentado de forma progressiva, mantendo a integridade do contexto ao longo dos diferentes níveis de divisão. Quando um chunk grande é identificado, ele é subdividido repetidamente até que cada porção se encaixe no tamanho ideal para processamento pelo LLM. Embora a implementação possa ser mais complexa, a recursividade assegura que a informação seja totalmente aproveitada sem comprometer a coesão.

Um exemplo de aplicação dessa técnica pode ser observado em transcrições de entrevistas ou em documentos com parágrafos longos, onde a divisão recursiva garante que cada ideia seja processada de forma adequada. Guias técnicos demonstram como, ao iniciar com a divisão por parágrafos e, em seguida, realizar cortes por sentenças, o conteúdo é organizado de forma a evitar sobrecargas. Essa abordagem é indispensável quando a variabilidade do tamanho do texto requer uma segmentação adaptativa.

Chunking Semântico

O chunking semântico emprega técnicas de embeddings e inteligência artificial para agrupar frases ou parágrafos que abordam o mesmo tópico, mesmo que estejam dispersos pelo documento. Essa abordagem vai além da simples divisão baseada em regras, utilizando modelos de linguagem para identificar relações semânticas e agrupar trechos correlacionados. Dessa forma, a recuperação de informações se torna ainda mais precisa, pois os blocos são formados com base no significado dos conteúdos.

Por meio dessa técnica, o sistema é capaz de associar perguntas ou intenções a grupos de informações que, apesar de estarem espalhadas no documento, compartilham um mesmo contexto temático. Esse agrupamento semântico reduz a chance de alucinações e melhora significativamente a qualidade das respostas ao acessar trechos que, juntos, fornecem uma visão completa do assunto tratado. Entretanto, a eficácia do método depende da qualidade do modelo semântico utilizado e do treinamento específico para o domínio.

Um exemplo prático desta técnica é a organização de perguntas e respostas em documentos de suporte, onde tópicos relacionados, como “reset de senha” e “alteração de e-mail”, são agrupados juntos. Materiais ilustrativos demonstram que, ao detectar temas comuns, o LLM consegue recuperar respostas contextualmente integradas. Essa estratégia se mostra especialmente valiosa para lidar com dados de tópicos múltiplos e variados em ambientes complexos.

Chunking Hierárquico

O chunking hierárquico adota uma abordagem multi-nível, segmentando o documento inicialmente em capítulos, depois seções e, finalmente, parágrafos. Essa técnica é ideal para textos muito bem estruturados, como livros, documentos técnicos e códigos legais, onde a organização por níveis facilita a navegação e a compreensão do conteúdo. Cada nível hierárquico funciona como uma camada que permite recuperar tanto informações amplas quanto detalhes específicos conforme a necessidade.

A divisão em níveis auxilia o modelo a identificar contextos gerais e, ao mesmo tempo, a aprofundar em tópicos menores sem perder a conexão com a estrutura global do documento. Essa abordagem permite uma flexibilidade maior na consulta ao conteúdo, possibilitando a extração de dados desde uma visão macro (por exemplo, o capítulo inteiro) até a granularidade micro (por exemplo, apenas um parágrafo). O método também facilita a manutenção e atualização de conteúdos dinâmicos em documentos extensos.

Um exemplo prático dessa técnica é a divisão de um livro digital onde o capítulo “Introdução” contém subseções detalhadas como “O que é RAG?” e “Por que usar RAG?”, conforme ilustrado em materiais de chunking hierárquico. Essa estrutura não só preserva a organização lógica do conteúdo, mas também melhora a precisão da recuperação das informações desejadas. Dessa forma, o chunking hierárquico se configura como uma ferramenta poderosa para documentos bem estruturados e complexos.

Chunking Sensível ao Tipo de Conteúdo

A técnica de chunking sensível ao tipo de conteúdo diferencia a forma de particionamento de acordo com a natureza dos dados presentes no documento. Ao reconhecer que tabelas, listas, imagens e textos simples possuem estruturas distintas, o método aplica regras específicas para cada formato, evitando a mistura de informações. Essa abordagem garante que o contexto de cada tipo seja preservado, facilitando a recuperação orientada por características particulares.

Em documentos que combinam múltiplos tipos de elementos, essa técnica evita que, por exemplo, uma tabela seja confundida com parágrafos de texto corrido. A segmentação adequada por tipo possibilita que o LLM trate cada bloco com a atenção que seu formato exige, melhorando a acurácia e a relevância dos resultados. Embora requeira um processamento prévio para identificar e classificar os elementos, os ganhos na precisão compensam o esforço adicional na implementação.

Um exemplo prático pode ser ilustrado por um relatório de pesquisa que inclui um resumo (texto), uma tabela de resultados e uma figura ilustrativa. Guias técnicos demonstram que, ao tratar cada componente como um chunk separado — conforme exemplificado em estratégias de chunking sensível ao tipo de conteúdo — o sistema permite recuperar especificamente a tabela ou o resumo, conforme solicitado. Essa metodologia é particularmente vantajosa para documentos complexos que combinam diferentes formatos de informação.

Conclusão

Ao explorar as 15 técnicas de chunking abordadas neste artigo, foi possível perceber que cada método oferece vantagens específicas para a recuperação de informações em sistemas RAG. Desde abordagens simples como a divisão linha por linha até estratégias mais sofisticadas, como o chunking semântico e hierárquico, a escolha da técnica adequada depende diretamente do tipo de documento e do contexto de aplicação. Essa diversidade de métodos permite uma adaptação flexível e eficaz às demandas dos sistemas de inteligência artificial.

A implementação adequada dessas técnicas é crucial para garantir que os modelos de linguagem possuam um contexto rico e preciso durante a geração de respostas. Conforme discutido, fatores como o tamanho dos blocos, a preservação da continuidade e a estrutura do documento influenciam diretamente a performance dos sistemas RAG. Essa integração entre métodos tradicionais e abordagens inovadoras amplia as possibilidades de aplicação e reduz riscos de interpretações equivocadas ou alucinações.

Olhando para o futuro, a evolução das técnicas de chunking promete aprimorar ainda mais a eficiência dos sistemas de IA, permitindo a construção de aplicações mais robustas e adaptáveis. Engenheiros de IA e pesquisadores têm a oportunidade de colaborar e desenvolver novas abordagens que atendam a contextos cada vez mais complexos, integrando conhecimentos de processamento de linguagem natural e análise semântica. A abertura para colaborações e a constante atualização metodológica garantirão que as soluções implementadas continuem a ser relevantes e inovadoras no cenário atual.


Referência Principal

Referências Adicionais

  1. Título: Mastering Chunking in Retrieval-Augmented Generation (RAG): 6 Powerful Techniques with Examples
    Autor: Jagadeesan Ganesh
    Data: 2024-10-09
    Fonte: Medium
    Link: https://medium.com/@jagadeesan.ganesh/mastering-chunking-in-retrieval-augmented-generation-rag-6-powerful-techniques-with-examples-767db2deb9a3
  2. Título: Meta-Chunking: Learning Efficient Text Segmentation via Logical Perception
    Autor: Jihao Zhao, Zhiyuan Ji, Yuchen Feng, Pengnian Qi, Simin Niu, Bo Tang, Feiyu Xiong, Zhiyu Li
    Data: 2024-10-16
    Fonte: arXiv
    Link: https://arxiv.org/abs/2410.12788
  3. Título: Rethinking Chunk Size For Long-Document Retrieval: A Multi-Dataset Analysis
    Autor: Sinchana Ramakanth Bhat, Max Rudat, Jannis Spiekermann, Nicolas Flores-Herr
    Data: 2025-05-27
    Fonte: arXiv
    Link: https://arxiv.org/abs/2505.21700
  4. Título: ChunkRAG: Novel LLM-Chunk Filtering Method for RAG Systems
    Autor: Ishneet Sukhvinder Singh, Ritvik Aggarwal, Ibrahim Allahverdiyev, Muhammad Taha, Aslihan Akalin, Kevin Zhu, Sean O’Brien
    Data: 2024-10-25
    Fonte: arXiv
    Link: https://arxiv.org/abs/2410.19572
  5. Título: cAST: Enhancing Code Retrieval-Augmented Generation with Structural Chunking via Abstract Syntax Tree
    Autor: Yilin Zhang, Xinran Zhao, Zora Zhiruo Wang, Chenyang Yang, Jiayi Wei, Tongshuang Wu
    Data: 2025-06-18
    Fonte: arXiv
    Link: https://arxiv.org/abs/2506.15655
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
mais recentes
mais antigos Mais votado
Feedbacks embutidos
Ver todos os comentários