<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:times new roman, new york, times, serif;font-size:10pt"><P>One more heteric coming out of the woods. However, my disclaimer is that I sympathize with the concept :-)</P>
<P>&nbsp;</P>
<P>On top of all technical difficulties, the concept of "fairness" in itself is elusive. All things being equal, then one session should have the&nbsp; same (pick one - bandwidth, transaction response time, packet loss) than the others. The utopy of it comes from the "all things being equal" part - in the Internet?</P>
<P>&nbsp;</P>
<P>Zeroing into the bandwidth metric, a per flow queueing would give routers the power to share their&nbsp;link capacities however they find fit - WFQ, max-min fairness, etc - independent of other factors, such as sessions RTTs. In this scenario, and aggressive congestion control would cause its own traffic to be spilled, so "isolation" of sessions would be achieved.</P>
<P>&nbsp;</P>
<P>Dirceu</P>
<DIV style="FONT-SIZE: 10pt; FONT-FAMILY: times new roman, new york, times, serif"><BR>
<DIV style="FONT-SIZE: 12pt; FONT-FAMILY: times new roman, new york, times, serif">----- Original Message ----<BR>From: Bob Briscoe &lt;rbriscoe@jungle.bt.co.uk&gt;<BR>To: Matt Mathis &lt;mathis@psc.edu&gt;<BR>Cc: iccrg@cs.ucl.ac.uk<BR>Sent: Friday, April 4, 2008 6:53:43 AM<BR>Subject: Re: [Iccrg] Heresy following "TCP: Train-wreck"<BR><BR>Matt,<BR><BR>From one heretic to another...<BR><BR>0) Priority to shortest jobs<BR>In your bullet list you missed a point that I believe is the most <BR>important one: about arrivals and departures of whole flows. If you <BR>have a mix of flow activity at a shared bottleneck, some continuously <BR>streaming and some intermittent (as we do on the Internet), you can <BR>make the intermittent flows go much much faster without hardly <BR>prolonging the completion time of the continuous flows. It's totally <BR>unfair (and very inefficient) for the intermittent flows to get the <BR>same bit rate as the continuous flows,
 because their behaviour is <BR>much more multiplexable. A picture may help: <BR>&lt;<A href="http://www.cs.ucl.ac.uk/staff/B.Briscoe/presents/0801cfp/shortestJobsPriority.png" target=_blank>http://www.cs.ucl.ac.uk/staff/B.Briscoe/presents/0801cfp/shortestJobsPriority.png</A>&gt;<BR><BR>If you're intrigued by how we'd move to such a world, I recently <BR>posted a bit more on this here: <BR>&lt;<A href="http://episteme.arstechnica.com/eve/forums?a=tpc&amp;s=50009562&amp;f=174096756&amp;m=703000231931&amp;r=160007441931#160007441931" target=_blank>http://episteme.arstechnica.com/eve/forums?a=tpc&amp;s=50009562&amp;f=174096756&amp;m=703000231931&amp;r=160007441931#160007441931</A>&gt;<BR><BR>Now thoughts on your main points:<BR><BR>1) Fair queuing<BR>Many broadband deployments already do some form of per-flow FQ <BR>(usually WFQ) at the most likely bottleneck (the broadband remote <BR>access server, BRAS). I'm less sure what common practice is in
 <BR>broadband cellular networks. I believe WFQ is not such an obvious <BR>choice for radio access because of the unpredictable radio link rate. <BR>I think there are a range of schemes, some distributed at the base <BR>station and others centralised at the radio network controller (RNC).<BR><BR>Incidentally, back to the first point, I recently realised that most <BR>deployed per-flow FQ tends to help short duration flows, by giving <BR>higher priority at the start of a flow and reducing the longer each <BR>flow continues. Altho this helps a little bit today, it's also <BR>actually a huge potential problem for the future - same problem as <BR>TCP: it still converges to the incorrect goal of sharing out bit-rate <BR>equally for each flow at the bottleneck - tho at least at a BRAS it's <BR>done separately per each user.<BR><BR>My point about priority to shortest jobs (and your point about huge <BR>differences between no.s of flows per app) shows that flow
 rates need <BR>to be /very/ unequal to be fair. So per-flow FQ embedded in the <BR>network will be fighting what we really need to do in the transport <BR>in future (tho operators would obviously turn off per-flow FQ if they <BR>were trying to encourage the new world I'm talking about).<BR><BR><BR>2) Edge bottlenecks protecting core<BR>Although it would be nice, we can't mandate that the core be <BR>protected by bottlenecks at the edge. Technology limits &amp; economics <BR>determine these things, not the IETF/IRTF:<BR>* At present technology trends are moving bottlenecks gradually <BR>closer to the core as access rates increase, because the newest <BR>access is now using the same technology as the core (optics) and <BR>there's nothing faster on the horizon.<BR>* However, economics always pushes the bottleneck location the other <BR>way - outwards. The cost of a bps of logical channel capacity follows <BR>about a square root (?) law wrt to the bandwidth
 of the physical pipe <BR>in which the logical channel sits. Ie. where you need many physical <BR>cables/fibres to cover a dispersed area, the cost per bps is much <BR>greater than where each bps can be provided within a few large pipes.<BR><BR>The net effect of these two opposing forces is pushing bottlenecks <BR>inwards at the moment - particularly onto border routers. The message <BR>of a talk I gave to a recent workshop (on photonics research and <BR>future Internet design) was that the challenge is to find ways to <BR>push complex trust-related stuff currently done at border routers <BR>outward to the edge, so we can have dumb all-optical interconnection <BR>without electronics: <BR>&lt;<A href="http://www.cs.ucl.ac.uk/staff/B.Briscoe/present.html#0709ecoc-fid" target=_blank>http://www.cs.ucl.ac.uk/staff/B.Briscoe/present.html#0709ecoc-fid</A>&gt;<BR><BR>3) RTT fairness<BR>I'd say this is only a small part of the problem, because it's <BR>relatively
 easy to solve in the transport alone - e.g. FAST TCP <BR>[Jin04:FAST_TCP] ensures its dynamics are slower for longer RTTs but, <BR>even tho it takes longer to get there, it ends up at the same rate as <BR>competing FAST TCPs with shorter RTTs.<BR><BR><BR>Bob<BR><BR>[Jin04:FAST_TCP] Cheng Jin, David Wei and Steven Low "FAST TCP: <BR>Motivation, Architecture, Algorithms, Performance", In "Proc. IEEE <BR>Conference on Computer Communications (Infocomm'04)" (March, 2004)<BR><BR><BR><BR>At 17:35 02/04/2008, Matt Mathis wrote:<BR>&gt;I just attended the "The Future of TCP: Train-wreck or Evolution?" <BR>&gt;at Stanford last week, and it solidified my thoughts on a subject <BR>&gt;that is sure to be controversial.<BR>&gt;<BR>&gt;I think it is time to abandon the concept of "TCP-Friendly" and <BR>&gt;instead expect the network to protect itself and other users from <BR>&gt;aggressive protocols and applications.&nbsp; For the moment I am going to <BR>&gt;assume
 two mechanisms, although I suspect that there will prove to be more.<BR>&gt;<BR>&gt;1) Deploy some form of Fair Queuing at the edges of the network.<BR>&gt;<BR>&gt;2) Protect the core by bottlenecks at the edges of the Internet.<BR>&gt;<BR>&gt;I observe that both of these mechanisms are already being <BR>&gt;implemented due to existing market forces, and the natural <BR>&gt;consequence of their implementation is to make TCP-friendliness a <BR>&gt;whole lot less important.&nbsp; I admit that it is not clear at this <BR>&gt;point if these two mechanisms will ultimately prove to be sufficient <BR>&gt;to address fairness all situations, such as over loaded core <BR>&gt;routers, but I suspect that sufficient mechanisms do exist.<BR>&gt;<BR>&gt;Supporting arguments:<BR>&gt;<BR>&gt;FQ is already being deployed at the edges to solve several existing <BR>&gt;and growing fairness problems:<BR>&gt;<BR>&gt;* Non-IETF, UDP protocols that are
 non-responsive.<BR>&gt;<BR>&gt;* P2P and other applications that open huge numbers of connections.<BR>&gt;<BR>&gt;* Stock TCP is egregiously unfair when very short RTT flows compete with wide<BR>&gt;&nbsp; area flows.&nbsp; This can be a real killer in a number of settings such as data<BR>&gt;&nbsp; centers and university campuses.&nbsp; The symptoms of this problem will become<BR>&gt;&nbsp; more pronounced as TCP autotuning continues to be rolled out in Vista,<BR>&gt;&nbsp; Linux, and various BSDs.<BR>&gt;<BR>&gt;* Autotuning will also greatly magnify RFC 2309 [1] problems, since every<BR>&gt;&nbsp; single TCP flow with sufficient data will cause congestion somewhere in the<BR>&gt;&nbsp; network.&nbsp; At the very least this will gradually force the retirement of<BR>&gt;&nbsp; drop-tail equipment, creating the opportunity for RED and/or FQ.&nbsp; Since RED<BR>&gt;&nbsp; by itself is insufficient to solve the other fairness problems, it will
 not<BR>&gt;&nbsp; be the first choice replacement.<BR>&gt;<BR>&gt;I should note that "Fair Queuing"is overly specific.&nbsp; The network <BR>&gt;needs to do something to large flows to prevent them from <BR>&gt;overwhelming smaller flows and to limit queue occupancy.&nbsp; FQ is one <BR>&gt;way, but there are others.<BR>&gt;<BR>&gt;If you have ever shared a drop-tail home router with a teenager, you <BR>&gt;might have observed some of these issues first hand, as has <BR>&gt;Comcast.[2] As I understand it, some form of enforced fairness is <BR>&gt;now part of all commercial broadband services.<BR>&gt;<BR>&gt;The core of the Internet is already mostly protected by bottlenecks <BR>&gt;at the edges.&nbsp; This is because ISPs can balance the allocation of <BR>&gt;revenue from customers between the relatively expensive access link, <BR>&gt;its own backbone links and interconnections to other ISPs.&nbsp; Since <BR>&gt;congestion in the core has proven to
 cause complaints from <BR>&gt;commercial customers (and perhaps SLA problems), most providers are <BR>&gt;careful to keep adequate capacity in the core, and can do so pretty <BR>&gt;easily, as long as their duty cycle models hold true.<BR>&gt;<BR>&gt;Are these two mechanisms sufficient to make TCP-friendliness <BR>&gt;completely moot? Probably not.<BR>&gt;<BR>&gt;We still have some work to do:<BR>&gt;<BR>&gt;First, stop whining about non-TCP-friendly protocols.&nbsp; The are here <BR>&gt;to stay and they can't hear us.&nbsp; We are wasting our breath and <BR>&gt;impeding real progress in well designed alternatives to <BR>&gt;"TCP-friendly".&nbsp; This concept came from an era when the Internet was <BR>&gt;a gentleman's club, but now it needs to be retired.<BR>&gt;<BR>&gt;Second, blame the network when the network deserves it.&nbsp; In <BR>&gt;particular if there are drop tail queues without AQM, be very <BR>&gt;suspicious of RFC2309 problems.&nbsp; In
 fact every drop tail queue <BR>&gt;without AQM should be viewed as a bug waiting to bite <BR>&gt;someone.&nbsp; Likewise remember that "TCP-friendly" is extremely unfair <BR>&gt;when the RTTs are extremely different.<BR>&gt;<BR>&gt;Third, think about the hard cases: over loaded interconnects, <BR>&gt;failure conditions, etc.&nbsp; Can FQ be approximated at core <BR>&gt;scales?&nbsp; Where else are my proposed mechanisms insufficient?&nbsp; I sure <BR>&gt;there are some.<BR>&gt;<BR>&gt;Fourth, start dreaming about what it would take to make Moore's law <BR>&gt;apply to end-to-end protocol performance, as it does to just about <BR>&gt;everything else in the computing universe.&nbsp; I suspect that in some <BR>&gt;future hindsight, we will come to realize that TCP-friendly was <BR>&gt;actually a untenable position, and has held us back from important innovations.<BR>&gt;<BR>&gt;[1] RFC2309 "Recommendations on Queue Management and Congestion
 <BR>&gt;Avoidance in the Internet", Bob Braden, et al.<BR>&gt;<BR>&gt;[2] Richard Bennett "New and Improved Traffic Shaping" <BR>&gt;<A href="http://bennett.com/blog/index.php/archives/2008/03/27/new-and-improved-traffic-shaping/" target=_blank>http://bennett.com/blog/index.php/archives/2008/03/27/new-and-improved-traffic-shaping/</A><BR>&gt;------------------<BR>&gt;<BR>&gt;It was a very stimulating conference!<BR>&gt;Thanks Nandita and everyone else who made it happen!<BR>&gt;--MM--<BR>&gt;-------------------------------------------<BR>&gt;Matt Mathis&nbsp; &nbsp; <A href="http://staff.psc.edu/mathis" target=_blank>http://staff.psc.edu/mathis</A><BR>&gt;Work:412.268.3319&nbsp; &nbsp; Home/Cell:412.654.7529<BR>&gt;-------------------------------------------<BR>&gt;<BR>&gt;<BR>&gt;_______________________________________________<BR>&gt;Iccrg mailing list<BR>&gt;<A href="mailto:Iccrg@cs.ucl.ac.uk"
 ymailto="mailto:Iccrg@cs.ucl.ac.uk">Iccrg@cs.ucl.ac.uk</A><BR>&gt;<A href="http://oakham.cs.ucl.ac.uk/mailman/listinfo/iccrg" target=_blank>http://oakham.cs.ucl.ac.uk/mailman/listinfo/iccrg</A><BR><BR>____________________________________________________________________________<BR>Bob Briscoe, &lt;<A href="mailto:bob.briscoe@bt.com" ymailto="mailto:bob.briscoe@bt.com">bob.briscoe@bt.com</A>&gt;&nbsp; &nbsp; &nbsp; Networks Research Centre, BT Research<BR>B54/77 Adastral Park,Martlesham Heath,Ipswich,IP5 3RE,UK.&nbsp; &nbsp; +44 1473 645196 <BR><BR><BR><BR>_______________________________________________<BR>Iccrg mailing list<BR><A href="mailto:Iccrg@cs.ucl.ac.uk" ymailto="mailto:Iccrg@cs.ucl.ac.uk">Iccrg@cs.ucl.ac.uk</A><BR><A href="http://oakham.cs.ucl.ac.uk/mailman/listinfo/iccrg" target=_blank>http://oakham.cs.ucl.ac.uk/mailman/listinfo/iccrg</A><BR></DIV><BR></DIV></div><br>

      <hr size=1>You rock. That's why Blockbuster's offering you <a href="http://us.rd.yahoo.com/evt=47523/*http://tc.deals.yahoo.com/tc/blockbuster/text5.com">one month of Blockbuster Total Access</a>, No Cost.</body></html>