Remove include gtest_prod.h (#152)
Flare Backend Service Framework
English Document
腾讯广告 是腾讯公司最重要的业务之一,其后台大量采用 C++ 开发。
Flare 是我们吸收先前服务框架和业界开源项目及最新研究成果开发的现代化的后台服务开发框架,旨在提供针对目前主流软硬件环境下的易用、高性能、平稳的服务开发能力。
Flare 项目开始于 2019 年,目前广泛应用于腾讯广告的众多后台服务,拥有数以万计的运行实例,在实际生产系统上经受了足够的考验。
2021 年 5 月,本着回馈社区、技术共享的精神,正式对外开源。
Flare 是开箱即用的,已经自带了所需的第三方库,因此通常不需要额外安装依赖库。只需要在 Linux 下,拉取代码,即可使用。
thirdparty/下面的压缩包我们通过Git LFS存储,因此在拉取代码之前您需要确保git-lfs已经正确的安装了。
thirdparty/
git-lfs
我们使用blade进行日常开发。
blade
./blade build ...
./blade test ...
Flare还支持bazel作为构建系统,可以查看bazel support。
bazel
之后就可以参考入门导引中的介绍,搭建一个简单的RPC服务了。
我们相信,调试体验也是开发维护过程中很重要的一部分,我们为此也做了如下一些支持:
为了改善编写单测的体验,我们提供了一些用于编写单测的工具。
这包括但不限于:
我们提供了一些使用示例以供参考,下面是一个简单的转发服务(同时包含RPC客户端及服务端的使用)。
#include "gflags/gflags.h" #include "flare/example/rpc/echo_service.flare.pb.h" #include "flare/example/rpc/relay_service.flare.pb.h" #include "flare/fiber/this_fiber.h" #include "flare/init.h" #include "flare/rpc/rpc_channel.h" #include "flare/rpc/rpc_client_controller.h" #include "flare/rpc/rpc_server_controller.h" #include "flare/rpc/server.h" using namespace std::literals; DEFINE_string(ip, "127.0.0.1", "IP address to listen on."); DEFINE_int32(port, 5569, "Port to listen on."); DEFINE_string(forward_to, "flare://127.0.0.1:5567", "Target IP to forward requests to."); namespace example { class RelayServiceImpl : public SyncRelayService { public: void Relay(const RelayRequest& request, RelayResponse* response, flare::RpcServerController* ctlr) override { flare::RpcClientController our_ctlr; EchoRequest echo_req; echo_req.set_body(request.body()); if (auto result = stub_.Echo(echo_req, &our_ctlr)) { response->set_body(result->body()); } else { ctlr->SetFailed(result.error().code(), result.error().message()); } } private: EchoService_SyncStub stub_{FLAGS_forward_to}; }; int Entry(int argc, char** argv) { flare::Server server{flare::Server::Options{.service_name = "relay_server"}}; server.AddProtocol("flare"); server.AddService(std::make_unique<RelayServiceImpl>()); server.ListenOn(flare::EndpointFromIpv4(FLAGS_ip, FLAGS_port)); FLARE_CHECK(server.Start()); flare::WaitForQuitSignal(); return 0; } } // namespace example int main(int argc, char** argv) { return flare::Start(argc, argv, example::Entry); }
Flare内部基于M:N的用户态线程实现,因此通过Flare同步的请求外界服务、使用Flare内置的各种客户端的同步接口均不会导致性能问题。如果有更复杂的并发或异步等需求可以参考我们的文档。
另外,示例中*.flare.pb.h通过我们的Protocol Buffers插件生成。这样生成的接口相对于Protocol Buffers生成的cc_generic_services而言,更易使用。
*.flare.pb.h
cc_generic_services
实际使用中,往往会面对需要并发请求多种后端的场景,下面的示例介绍了如何在Flare中进行这种操作:
// For illustration purpose only. Normally you wouldn't want to declare them as // global variables. flare::HttpClient http_client; flare::CosClient cos_client; EchoService_SyncStub echo_stub(FLAGS_echo_server_addr); void FancyServiceImpl::FancyJob(const FancyJobRequest& request, FancyJobResponse* response, flare::RpcServerController* ctlr) { // Calling different services concurrently. auto async_http_body = http_client.AsyncGet(request.uri()); auto async_cos_data = cos_client.AsyncExecute(flare::CosGetObjectRequest{.key = request.key()}); EchoRequest echo_req; flare::RpcClientController echo_ctlr; echo_req.set_body(request.echo()); auto async_rpc_resp = echo_stub.AsyncEcho(EchoRequest(), &echo_ctlr); // Now wait for all of them to complete. auto&& [http, cos, rpc] = flare::fiber::BlockingGet( flare::WhenAll(&async_http_body, &async_cos_data, &async_rpc_resp)); if (!http || !cos || !rpc) { FLARE_LOG_WARNING("Failed."); } else { // All succeeded. FLARE_LOG_INFO("Got: {}, {}, {}", *http->body(), flare::FlattenSlow(cos->bytes), rpc->body()); } // Now fill `response` accordingly. response->set_body("Great success."); }
这个示例中,我们:
flare::fiber::BlockingGet
出于展示目的,我们这儿请求了三个异构的服务。如果有必要,也可以通过这种方式请求同构的、或者部分同构部分异构的服务。
我们非常欢迎参与共同建设,对于希望了解 Flare 更多内部设计的开发者,或需要对 Flare 进行二次开发的开发者而言,flare/doc/下有更多的技术文档可供参考。
flare/doc/
详情请参考CONTRIBUTING.md。
由于业务需求的特点,我们在设计过程中更倾向于优化延迟及抖动的平稳性而非吞吐,但是也在这个前提下尽量保证性能。
出于简单的对比目的,我们提供了初步的性能数据。
在此,我们对上述项目一并致以谢意。
版权所有:中国计算机学会技术支持:开源发展技术委员会 京ICP备13000930号-9 京公网安备 11010802032778号
Flare 后台服务开发框架
Flare Backend Service Framework
English Document
腾讯广告 是腾讯公司最重要的业务之一,其后台大量采用 C++ 开发。
Flare 是我们吸收先前服务框架和业界开源项目及最新研究成果开发的现代化的后台服务开发框架,旨在提供针对目前主流软硬件环境下的易用、高性能、平稳的服务开发能力。
Flare 项目开始于 2019 年,目前广泛应用于腾讯广告的众多后台服务,拥有数以万计的运行实例,在实际生产系统上经受了足够的考验。
2021 年 5 月,本着回馈社区、技术共享的精神,正式对外开源。
特点
系统要求
开始使用
Flare 是开箱即用的,已经自带了所需的第三方库,因此通常不需要额外安装依赖库。只需要在 Linux 下,拉取代码,即可使用。
thirdparty/下面的压缩包我们通过Git LFS存储,因此在拉取代码之前您需要确保git-lfs已经正确的安装了。构建
我们使用
blade进行日常开发。./blade build ...,./blade test ...。Flare还支持
bazel作为构建系统,可以查看bazel support。之后就可以参考入门导引中的介绍,搭建一个简单的RPC服务了。
调试
我们相信,调试体验也是开发维护过程中很重要的一部分,我们为此也做了如下一些支持:
测试
为了改善编写单测的体验,我们提供了一些用于编写单测的工具。
这包括但不限于:
示例
我们提供了一些使用示例以供参考,下面是一个简单的转发服务(同时包含RPC客户端及服务端的使用)。
Flare内部基于M:N的用户态线程实现,因此通过Flare同步的请求外界服务、使用Flare内置的各种客户端的同步接口均不会导致性能问题。如果有更复杂的并发或异步等需求可以参考我们的文档。
另外,示例中
*.flare.pb.h通过我们的Protocol Buffers插件生成。这样生成的接口相对于Protocol Buffers生成的cc_generic_services而言,更易使用。更复杂的示例
实际使用中,往往会面对需要并发请求多种后端的场景,下面的示例介绍了如何在Flare中进行这种操作:
这个示例中,我们:
flare::fiber::BlockingGet同步等待所有请求完成。这儿我们只会阻塞用户态线程,不会存在性能问题;出于展示目的,我们这儿请求了三个异构的服务。如果有必要,也可以通过这种方式请求同构的、或者部分同构部分异构的服务。
参与开发
我们非常欢迎参与共同建设,对于希望了解 Flare 更多内部设计的开发者,或需要对 Flare 进行二次开发的开发者而言,
flare/doc/下有更多的技术文档可供参考。详情请参考CONTRIBUTING.md。
性能
由于业务需求的特点,我们在设计过程中更倾向于优化延迟及抖动的平稳性而非吞吐,但是也在这个前提下尽量保证性能。
出于简单的对比目的,我们提供了初步的性能数据。
致谢
在此,我们对上述项目一并致以谢意。