<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:media="http://search.yahoo.com/mrss/"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>模型 - 四号程序员</title>
	<atom:link href="https://www.coder4.com/archives/tag/%E6%A8%A1%E5%9E%8B/feed" rel="self" type="application/rss+xml" />
	<link>https://www.coder4.com</link>
	<description>Keep It Simple and Stupid</description>
	<lastBuildDate>Mon, 05 May 2025 23:16:48 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>
	<item>
		<title>[转]rk3588使用npu进行模型转换和推理，加速AI应用落地</title>
		<link>https://www.coder4.com/archives/8208</link>
					<comments>https://www.coder4.com/archives/8208#respond</comments>
		
		<dc:creator><![CDATA[coder4]]></dc:creator>
		<pubDate>Wed, 23 Oct 2024 04:11:47 +0000</pubDate>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[机器学习]]></category>
		<category><![CDATA[npu]]></category>
		<category><![CDATA[rknn]]></category>
		<category><![CDATA[推理]]></category>
		<category><![CDATA[模型]]></category>
		<category><![CDATA[转换]]></category>
		<guid isPermaLink="false">https://www.coder4.com/?p=8208</guid>

					<description><![CDATA[转载自：《rk3588使用npu进行模型转换和推理，加速AI应用落地》 🍉零、引言 博主在瑞芯微RK3588的开发板上跑了deepsort跟踪算法，从IP相机中的server拉取rtsp视频流，但是fps只有1.2，和放PPT一样卡顿，无法投入实际应用。本来想使用tensorrt进行加速推理，但是前提需要cuda，rk的板子上都是Arm的手机gpu，没有Nvidia的cuda，所以这条路行不通。那么转过来，使用开发板自带的NPU进行加速推理，岂不是更加可行，而且它本身就是深度学习嵌入式板子，[......] 继续阅读]]></description>
		
					<wfw:commentRss>https://www.coder4.com/archives/8208/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>C4架构图模型与platuml</title>
		<link>https://www.coder4.com/archives/7524</link>
					<comments>https://www.coder4.com/archives/7524#respond</comments>
		
		<dc:creator><![CDATA[coder4]]></dc:creator>
		<pubDate>Wed, 08 Dec 2021 09:35:38 +0000</pubDate>
				<category><![CDATA[计算机技术]]></category>
		<category><![CDATA[C4]]></category>
		<category><![CDATA[架构图]]></category>
		<category><![CDATA[模型]]></category>
		<guid isPermaLink="false">https://www.coder4.com/?p=7524</guid>

					<description><![CDATA[中文版：https://www.infoq.cn/article/C4-architecture-model 英文版：https://www.infoq.com/articles/C4-architecture-model PlantUML插件1：https://github.com/plantuml-stdlib/C4-PlantUML C4Builder：https://adrianvlupu.github.io/C4-Builder 在线工具：https://str[......] 继续阅读]]></description>
		
					<wfw:commentRss>https://www.coder4.com/archives/7524/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>[ 转载] memcached源码阅读----使用libevent和多线程模型</title>
		<link>https://www.coder4.com/archives/4597</link>
					<comments>https://www.coder4.com/archives/4597#respond</comments>
		
		<dc:creator><![CDATA[coder4]]></dc:creator>
		<pubDate>Wed, 01 Apr 2015 05:33:18 +0000</pubDate>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[libevent]]></category>
		<category><![CDATA[memcached]]></category>
		<category><![CDATA[多线程]]></category>
		<category><![CDATA[模型]]></category>
		<guid isPermaLink="false">http://www.coder4.com/?p=4597</guid>

					<description><![CDATA[转载自：memcached源码阅读----使用libevent和多线程模型 本篇文章主要是我今天阅读memcached源码关于进程启动，在网络这块做了哪些事情。 一、libevent的使用 首先我们知道，memcached是使用了iblievet作为网络框架的，而iblievet又是单线程模型的基于linux下epoll事件的异步模型。因此，其基本的思想就是 对可读，可写，超时，出错等事件进行绑定函数，等有其事件发生，对其绑定函数回调。 可以简单了解一下 libevent基本[......] 继续阅读]]></description>
		
					<wfw:commentRss>https://www.coder4.com/archives/4597/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
